立即打开
人工智能亟需加强监管

人工智能亟需加强监管

WILL HUNT 2020-12-15
人工智能创新需要明确的法规,而拜登政府可能会颁布这些法规。

图片来源:GROVE PASHLEY—GETTY IMAGES

安迪•泰勒的目标既适度又雄心勃勃:首次将人工智能引入空中交通管制。作为一名职业空中交通管制员,泰勒很快就意识到了计算机视觉技术的改进可以为他的职业带来潜在的好处。

示例:每次飞机离开跑道时,空中交通管制员都必须进行标记,并通知下一架飞机跑道可以使用。这项简单、重复的任务占据了管制员所有的注意力,使其无法观察到停机坪上发生的其他任何情况。即使稍有耽搁,在一天中累积起来所产生的影响也不能小觑,尤其是在泰勒工作的伦敦希思罗机场,该机场的航班预订从早上六点到晚上11点30分从不间断。

如果人工智能系统能够自动处理此项工作,会怎么样?NATS是英国唯一的空中交通管制服务提供商,泰勒现在带头进行NATS的开创性工作,以回答该问题,并采用人工智能来承担这项工作以及相关的空中交通管制任务。

他创新路上的最大障碍是什么?人工智能航空安全法规尚未成型。

缺乏法规可能会阻碍像泰勒这样的创新者,有些人可能会认为这种说法有悖常理。毕竟,通常情况下,无阻碍创新的支持者与那些担心不受约束的竞争会造成社会危害的人们在围绕监管进行争论时一直都站在对立面。

特朗普政府加入了前一阵营,主张各机构对新法规采取“低干预”的手段,其认为新的法规“不必要且会阻碍人工智能创新和发展”。

作为一个日益强大的政治主体,许多硅谷的精英们也同意这种观点,其对监管的厌恶众所周知。

但是,尽管不干预的手段可能会促进互联网、航空和其他行业的创新,但它可能会成为进步的障碍。我在加利福尼亚大学伯克利分校(UC Berkeley)的人工智能安全倡议研究中心(AI Security Initiative)的报告中作出了解释。部分问题在于,航空安全法规范围太广,且与人工智能情况严重不符,因此需要对现有规则进行大量修订和补充。

例如,飞机认证过程遵循基于逻辑的方法,其中每一个可能的输入和输出都有人关注并对其进行分析。但是这种方法通常对人工智能模型不起作用,其中许多模型的反应不同,甚至对输入的轻微扰动反应也不同,从而产生了几乎无限量的结果需要考虑。

应对这一挑战不仅仅是修改现有监管语言的问题:它需要人们进行新的技术研究,构建行为可预测和可解释的人工智能系统,以及制定新的技术标准来对标安全性和其他性能标准。在制定这些标准和法规之前,企业必须完全从零开始,为人工智能应用程序构建安全案例。即使对于像NATS这样的开路先锋企业来说,这也是一项艰巨的任务。

“这绝对是个挑战,”泰勒今年早些时候告诉我,“因为没有指南或要求,我没办法指着某个指南或要求说,‘我遵循的就是这个要求。’”

一个更深层次的问题是,空中交通管制企业以及波音公司和空中客车公司等制造商明白,制定人工智能新规则不可避免。虽然他们渴望获得人工智能带来的成本和安全方面的好处,但可以理解的是,它们中大多数不愿意进行重大投资,因为他们没有信心,能够保证由人工智能产生的产品将符合未来的法规。

其结果可能是采用人工智能的速度大幅放缓:如果监管机构无法获得更多资源以及白宫不施加强有力的领导,设定标准和制定符合人工智能的法规的过程需要花费几年甚至几十年的时间。

即将上任的拜登政府准备进行强有力的领导,这与特朗普政府“治理人工智能”所采取的不干预手段形成了鲜明对比。

在影响拜登政府对待人工智能监管的态度方面,商界领袖和技术专家可以发挥关键作用。他们首先可能鼓励政府优先考虑进行和树立与支持航空业和其他行业创新的人工智能有关的安全研究和监管框架。或者,他们可以发挥自己的专长:在私营部门开发原型解决方案(例如,见OpenAI关于人工智能治理的监管市场提案)。

如果他们的努力取得成功,安迪•泰勒和其他企业家就可以放开拳脚,在从航空到医疗保健再到军事等安全至上的行业中进行创新。如果未能取得成功,NATS等少数企业仍将尝试在这些行业开发新的人工智能应用程序。但这并不容易,而且会增加发生事故的风险。人工智能的潜在好处——改进的医疗诊断、经济适用的城市空气流动性等等——在技术上将仍然可行,但总是要几年时间。

因此,支持创新的商业领袖和技术专家应该减少对新的法规会使人工智能发展减缓的担心,而是努力制定加快发展所需的智能法规。(财富中文网)

威尔•亨特是乔治敦大学安全与新兴技术中心(Georgetown University’s Center for Security and Emerging Technology)的研究分析师以及加州大学伯克利分校(University of California at Berkeley)的政治学在读博士生。他与别人合作编写了《华尔街日报》上的科技政策社评。先前,他曾是加州大学伯克利分校人工智能安全倡议研究中心的研究生研究员。

翻译:晓田

审校:汪皓

安迪•泰勒的目标既适度又雄心勃勃:首次将人工智能引入空中交通管制。作为一名职业空中交通管制员,泰勒很快就意识到了计算机视觉技术的改进可以为他的职业带来潜在的好处。

示例:每次飞机离开跑道时,空中交通管制员都必须进行标记,并通知下一架飞机跑道可以使用。这项简单、重复的任务占据了管制员所有的注意力,使其无法观察到停机坪上发生的其他任何情况。即使稍有耽搁,在一天中累积起来所产生的影响也不能小觑,尤其是在泰勒工作的伦敦希思罗机场,该机场的航班预订从早上六点到晚上11点30分从不间断。

如果人工智能系统能够自动处理此项工作,会怎么样?NATS是英国唯一的空中交通管制服务提供商,泰勒现在带头进行NATS的开创性工作,以回答该问题,并采用人工智能来承担这项工作以及相关的空中交通管制任务。

他创新路上的最大障碍是什么?人工智能航空安全法规尚未成型。

缺乏法规可能会阻碍像泰勒这样的创新者,有些人可能会认为这种说法有悖常理。毕竟,通常情况下,无阻碍创新的支持者与那些担心不受约束的竞争会造成社会危害的人们在围绕监管进行争论时一直都站在对立面。

特朗普政府加入了前一阵营,主张各机构对新法规采取“低干预”的手段,其认为新的法规“不必要且会阻碍人工智能创新和发展”。

作为一个日益强大的政治主体,许多硅谷的精英们也同意这种观点,其对监管的厌恶众所周知。

但是,尽管不干预的手段可能会促进互联网、航空和其他行业的创新,但它可能会成为进步的障碍。我在加利福尼亚大学伯克利分校(UC Berkeley)的人工智能安全倡议研究中心(AI Security Initiative)的报告中作出了解释。部分问题在于,航空安全法规范围太广,且与人工智能情况严重不符,因此需要对现有规则进行大量修订和补充。

例如,飞机认证过程遵循基于逻辑的方法,其中每一个可能的输入和输出都有人关注并对其进行分析。但是这种方法通常对人工智能模型不起作用,其中许多模型的反应不同,甚至对输入的轻微扰动反应也不同,从而产生了几乎无限量的结果需要考虑。

应对这一挑战不仅仅是修改现有监管语言的问题:它需要人们进行新的技术研究,构建行为可预测和可解释的人工智能系统,以及制定新的技术标准来对标安全性和其他性能标准。在制定这些标准和法规之前,企业必须完全从零开始,为人工智能应用程序构建安全案例。即使对于像NATS这样的开路先锋企业来说,这也是一项艰巨的任务。

“这绝对是个挑战,”泰勒今年早些时候告诉我,“因为没有指南或要求,我没办法指着某个指南或要求说,‘我遵循的就是这个要求。’”

一个更深层次的问题是,空中交通管制企业以及波音公司和空中客车公司等制造商明白,制定人工智能新规则不可避免。虽然他们渴望获得人工智能带来的成本和安全方面的好处,但可以理解的是,它们中大多数不愿意进行重大投资,因为他们没有信心,能够保证由人工智能产生的产品将符合未来的法规。

其结果可能是采用人工智能的速度大幅放缓:如果监管机构无法获得更多资源以及白宫不施加强有力的领导,设定标准和制定符合人工智能的法规的过程需要花费几年甚至几十年的时间。

即将上任的拜登政府准备进行强有力的领导,这与特朗普政府“治理人工智能”所采取的不干预手段形成了鲜明对比。

在影响拜登政府对待人工智能监管的态度方面,商界领袖和技术专家可以发挥关键作用。他们首先可能鼓励政府优先考虑进行和树立与支持航空业和其他行业创新的人工智能有关的安全研究和监管框架。或者,他们可以发挥自己的专长:在私营部门开发原型解决方案(例如,见OpenAI关于人工智能治理的监管市场提案)。

如果他们的努力取得成功,安迪•泰勒和其他企业家就可以放开拳脚,在从航空到医疗保健再到军事等安全至上的行业中进行创新。如果未能取得成功,NATS等少数企业仍将尝试在这些行业开发新的人工智能应用程序。但这并不容易,而且会增加发生事故的风险。人工智能的潜在好处——改进的医疗诊断、经济适用的城市空气流动性等等——在技术上将仍然可行,但总是要几年时间。

因此,支持创新的商业领袖和技术专家应该减少对新的法规会使人工智能发展减缓的担心,而是努力制定加快发展所需的智能法规。(财富中文网)

威尔•亨特是乔治敦大学安全与新兴技术中心(Georgetown University’s Center for Security and Emerging Technology)的研究分析师以及加州大学伯克利分校(University of California at Berkeley)的政治学在读博士生。他与别人合作编写了《华尔街日报》上的科技政策社评。先前,他曾是加州大学伯克利分校人工智能安全倡议研究中心的研究生研究员。

翻译:晓田

审校:汪皓

Andy Taylor has a goal both modest and ambitious: bring artificial intelligence, or A.I., to air traffic control for the first time. A career air traffic controller, Taylor was quick to see the potential benefits that advances in computer vision technology could bring to his profession.

Example: Every time a plane clears its runway, an air traffic controller must flag it and notify the next plane that the runway is free. This simple, repetitive task takes controllers’ attention away from everything else that’s happening on the tarmac. Even short delays can add up considerably over the course of a day—especially at airports such as London’s Heathrow, where Taylor works, which has flights booked end-to-end from six in the morning till 11:30 at night.

What if an A.I. system could handle this work autonomously? Taylor now leads the groundbreaking effort by NATS, Britain’s sole air traffic control provider, to answer that question, and to bring A.I. to bear on this and related air traffic control tasks.

His biggest obstacle to innovation? The nonexistence of A.I. safety regulations for aviation.

That a lack of regulations might obstruct innovators like Taylor might be counterintuitive to some. After all, arguments around regulation usually pit proponents of unencumbered innovation against those concerned about social harms resulting from unchecked competition.

The Trump administration falls into the former camp, advocating that agencies adopt a light-touch approach toward new regulations, which it feels could “needlessly hamper A.I. innovation and growth.”

So do many Silicon Valley elites—an increasingly powerful political constituency with a well-documented distaste for regulation.

But while a hands-off approach might foster innovation on the Internet, in aviation and other industries it can be an obstacle to progress. In a report from UC Berkeley’s AI Security Initiative, I explain why. Part of the problem is that safety regulations for aviation are both extensive and deeply incompatible with A.I., necessitating broad revisions and additions to existing rules.

For example, aircraft certification processes follow a logic-based approach in which every possible input and output receives attention and analysis. But this approach often doesn’t work for A.I. models, many of which react differently even to slight perturbations of input, generating a nearly infinite number of outcomes to consider.

Addressing this challenge isn’t a mere matter of modifying existing regulatory language: It requires novel technical research on building A.I. systems with predictable and explainable behavior and the development of new technical standards for benchmarking safety and other performance criteria. Until these standards and regulations are developed, firms will have to build safety cases for A.I. applications entirely from scratch—a tall order, even for pathbreaking firms like NATS.

“It’s absolutely a challenge,” Taylor told me earlier this year, “because there’s no guidance or requirements that I can point to and say, ‘I’m using that particular requirement.’”

A further issue is that air traffic control firms, as well as manufacturers such as Boeing and Airbus, know that new rules for A.I. are inevitable. While they are eager to reap the cost and safety benefits offered by A.I., most are understandably reluctant to make serious investments without confidence that the resulting product will be compatible with future regulations.

The result could be a major slowdown in A.I. adoption: Without more resources for regulators and strong leadership from the White House, the process of setting standards and developing A.I.-appropriate regulations will take years or even decades.

The incoming Biden administration is poised to offer that leadership, striking a contrast with the Trump administration’s light-touch approach to A.I. governance.

Business leaders and technologists have a key role to play in influencing the Biden administration’s attitude toward A.I. regulation. They might start by encouraging the administration to prioritize A.I. safety research and regulatory frameworks for A.I. that support innovation in aviation and other industries. Or they could do what they do best: develop prototype solutions in the private sector (for a great example, see OpenAI’s proposal of regulatory markets for A.I. governance).

If successful, these efforts could free up Andy Taylor and other entrepreneurs to innovate in safety-critical industries from aviation to health care to the military. If not, a handful of companies like NATS will still try to develop new A.I. applications in these industries. But it won’t be easy and could increase the risk of accidents. The potential benefits of A.I.—improved medical diagnoses, affordable urban air mobility, and much more—would remain technically feasible, but always a few years away.

Pro-innovation business leaders and technologists should therefore worry less about new regulations slowing down progress and instead work on developing the smart regulations required to speed it up.

Will Hunt is a research analyst at Georgetown University’s Center for Security and Emerging Technology and a political science Ph.D. student at the University of California at Berkeley. He has coauthored commentary on technology policy in the Wall Street Journal, and he was previously a graduate researcher at the UC Berkeley AI Security Initiative.

热读文章
热门视频
扫描二维码下载财富APP