立即打开
微软首席经济学家坚信,人工智能将“被坏人利用”

微软首席经济学家坚信,人工智能将“被坏人利用”

Prarthana Prakash 2023-05-17
在最近兴起的生成式人工智能技术中,微软一直扮演着关键角色。

微软首席经济学家迈克尔·施瓦茨在世界经济论坛2023年年会的小组讨论中发言。图片来源:COURTESY OF WORLD ECONOMIC FORUM

对于那些担心人工智能技术被用于实现犯罪目的或者其他邪恶目的的人,微软(Microsoft)的首席经济学家做出了如下回答:汽车也可能不安全。关键是要把保障措施落实到位。

迈克尔·施瓦茨于5月3日在世界经济论坛(World Economic Forum)的小组讨论中谈到人工智能时说:“毋庸置疑,我们必须担心这项技术的安全性——就像其他任何技术一样。”

例如,车辆可以将人们带到他们想去的地方。但由于事故和污染,它们也很危险。

“我希望人工智能永远不会像内燃机那样致命。”施瓦茨表示。

即使对从事人工智能研究的公司来说,人工智能的危险也很难忽视,施瓦茨承认,这项技术如果落入坏人之手,可能就会造成伤害。

施瓦茨称:“我确信,人工智能会被坏人利用,而且这将造成真正的损害。如果落入垃圾邮件发送者、想要操纵选举的人手里,人工智能就会造成很大的损害。”

但他指出,其中一些损害是能够避免的。“一旦我们发现真正的危害,我们就必须问自己一个简单的问题:‘我们能否以这样一种方式来监管人工智能,使落入监管范围无法实现的、但却可以带来益处的事情变得不那么重要?’”施瓦茨说。“原则应该是,监管给社会带来的好处应该大于其社会成本。”

施瓦茨称,微软专注于研究人工智能能够给社会带来的益处,并努力开发人工智能,帮助人类提高效率以“取得更多成就”。

微软的一位发言人对《财富》杂志表示:“我们对人工智能的未来持乐观态度,我们认为与人工智能带来的挑战相比,人工智能的进步将解决更多难题,但我们也一直坚信,当你创造出可以改变世界的技术时,你必须确保人类负责任地使用这项技术。”

在最近兴起的生成式人工智能技术中,微软一直扮演着关键角色。该公司利用OpenAI的技术开发了一个聊天机器人,并将其整合到许多产品里。微软还计划在未来几年向OpenAI投资100亿美元,此前微软已经在2019年和2021年向这家初创公司注资。

施瓦茨对人工智能技术的警告在某种程度上与谷歌(Google)的前副总裁兼工程研究员杰弗里·辛顿最近的言论相呼应。辛顿曾经帮助开发了一些关键技术,为当今广泛使用的人工智能工具提供了支持,被称为“人工智能教父”。辛顿警告称,要阻止人工智能被用于欺诈可能很难。

在5月1日发表的《纽约时报》(New York Times)采访中,辛顿说:“很难想象如何阻止坏人利用它做坏事。”

“我用通常的借口来安慰自己:如果我没有研发出这些关键技术,别人也会研发出来。”

辛顿的担忧之一是人工智能工具的出现,让在几秒钟内创建图像和汇总信息成为可能。它们可能导致虚假内容的传播,而普通人很难辨别其准确性。

虽然施瓦茨和辛顿担心坏人可能会滥用人工智能,但两位专家在人工智能可能对某些工作产生影响的看法上存在分歧。

在世界经济论坛的小组讨论中,施瓦茨表示,人们对自己的工作会被人工智能取代感到“恐惧”,其实他们“不必太担心”。但从2013年起一直到最近都在谷歌工作的辛顿指出,在人工智能主导的工作环境里,人工智能确实会给人类的工作带来威胁。

辛顿说:“人工智能取代了艰苦的工作,但它能够取代的工作可能不止此类工作。”

呼吁停止开发高级人工智能

今年3月,超过2.5万名技术专家——从学者到前高管——签署了一封公开信,要求将高级人工智能系统的开发暂停六个月,以便政府可以更好地理解其影响,并进行相应监管。这封信认为,一些系统,比如OpenAI于3月早些时候推出的GPT-4,正在“成为人类在一般任务方面的竞争者”,带来产生错误信息的威胁,并有可能大规模地实现工作自动化。

谷歌和微软等科技巨头的高管们表示,暂停六个月不会解决这一问题。其中包括Alphabet和谷歌的首席执行官桑达尔·皮查伊。

“我认为,在具体细节上,我并不完全清楚你们会如何实现这一目标。”他在今年3月的一次播客采访中说,他指的是将开发暂停六个月。“至少对我而言,如果不让政府参与进来,就无法有效地实现这一目标。因此,我认为需要进行更多的思考。”

微软的首席科学官在今年4月接受《财富》杂志采访时称,除了暂停人工智能开发,还有其他选择。

微软的埃里克·霍维茨表示:“对我来说,我宁愿看到更多的知识涌现,甚至加速研发,而不是暂停六个月,我甚至不确定这是否可行。而且,从更广泛的意义上说,暂停六个月意义不大。我们真的需要在理解、指导甚至监管这项技术上投入更多——参与进来,而不是暂停。”(财富中文网)

译者:中慧言-王芳

对于那些担心人工智能技术被用于实现犯罪目的或者其他邪恶目的的人,微软(Microsoft)的首席经济学家做出了如下回答:汽车也可能不安全。关键是要把保障措施落实到位。

迈克尔·施瓦茨于5月3日在世界经济论坛(World Economic Forum)的小组讨论中谈到人工智能时说:“毋庸置疑,我们必须担心这项技术的安全性——就像其他任何技术一样。”

例如,车辆可以将人们带到他们想去的地方。但由于事故和污染,它们也很危险。

“我希望人工智能永远不会像内燃机那样致命。”施瓦茨表示。

即使对从事人工智能研究的公司来说,人工智能的危险也很难忽视,施瓦茨承认,这项技术如果落入坏人之手,可能就会造成伤害。

施瓦茨称:“我确信,人工智能会被坏人利用,而且这将造成真正的损害。如果落入垃圾邮件发送者、想要操纵选举的人手里,人工智能就会造成很大的损害。”

但他指出,其中一些损害是能够避免的。“一旦我们发现真正的危害,我们就必须问自己一个简单的问题:‘我们能否以这样一种方式来监管人工智能,使落入监管范围无法实现的、但却可以带来益处的事情变得不那么重要?’”施瓦茨说。“原则应该是,监管给社会带来的好处应该大于其社会成本。”

施瓦茨称,微软专注于研究人工智能能够给社会带来的益处,并努力开发人工智能,帮助人类提高效率以“取得更多成就”。

微软的一位发言人对《财富》杂志表示:“我们对人工智能的未来持乐观态度,我们认为与人工智能带来的挑战相比,人工智能的进步将解决更多难题,但我们也一直坚信,当你创造出可以改变世界的技术时,你必须确保人类负责任地使用这项技术。”

在最近兴起的生成式人工智能技术中,微软一直扮演着关键角色。该公司利用OpenAI的技术开发了一个聊天机器人,并将其整合到许多产品里。微软还计划在未来几年向OpenAI投资100亿美元,此前微软已经在2019年和2021年向这家初创公司注资。

施瓦茨对人工智能技术的警告在某种程度上与谷歌(Google)的前副总裁兼工程研究员杰弗里·辛顿最近的言论相呼应。辛顿曾经帮助开发了一些关键技术,为当今广泛使用的人工智能工具提供了支持,被称为“人工智能教父”。辛顿警告称,要阻止人工智能被用于欺诈可能很难。

在5月1日发表的《纽约时报》(New York Times)采访中,辛顿说:“很难想象如何阻止坏人利用它做坏事。”

“我用通常的借口来安慰自己:如果我没有研发出这些关键技术,别人也会研发出来。”

辛顿的担忧之一是人工智能工具的出现,让在几秒钟内创建图像和汇总信息成为可能。它们可能导致虚假内容的传播,而普通人很难辨别其准确性。

虽然施瓦茨和辛顿担心坏人可能会滥用人工智能,但两位专家在人工智能可能对某些工作产生影响的看法上存在分歧。

在世界经济论坛的小组讨论中,施瓦茨表示,人们对自己的工作会被人工智能取代感到“恐惧”,其实他们“不必太担心”。但从2013年起一直到最近都在谷歌工作的辛顿指出,在人工智能主导的工作环境里,人工智能确实会给人类的工作带来威胁。

辛顿说:“人工智能取代了艰苦的工作,但它能够取代的工作可能不止此类工作。”

呼吁停止开发高级人工智能

今年3月,超过2.5万名技术专家——从学者到前高管——签署了一封公开信,要求将高级人工智能系统的开发暂停六个月,以便政府可以更好地理解其影响,并进行相应监管。这封信认为,一些系统,比如OpenAI于3月早些时候推出的GPT-4,正在“成为人类在一般任务方面的竞争者”,带来产生错误信息的威胁,并有可能大规模地实现工作自动化。

谷歌和微软等科技巨头的高管们表示,暂停六个月不会解决这一问题。其中包括Alphabet和谷歌的首席执行官桑达尔·皮查伊。

“我认为,在具体细节上,我并不完全清楚你们会如何实现这一目标。”他在今年3月的一次播客采访中说,他指的是将开发暂停六个月。“至少对我而言,如果不让政府参与进来,就无法有效地实现这一目标。因此,我认为需要进行更多的思考。”

微软的首席科学官在今年4月接受《财富》杂志采访时称,除了暂停人工智能开发,还有其他选择。

微软的埃里克·霍维茨表示:“对我来说,我宁愿看到更多的知识涌现,甚至加速研发,而不是暂停六个月,我甚至不确定这是否可行。而且,从更广泛的意义上说,暂停六个月意义不大。我们真的需要在理解、指导甚至监管这项技术上投入更多——参与进来,而不是暂停。”(财富中文网)

译者:中慧言-王芳

Microsoft’s chief economist offers the following reply to those concerned about A.I. being misused for crime or other nefarious purposes: Cars can be unsafe, too. The key is putting safeguards in place.

“We do have to worry a lot about [the] safety of this technology—just like with any other technology,” Michael Schwarz said about artificial intelligence during a World Economic Forum panel on May 3.

Vehicles, for example, get people to where they want to go. But they’re also a danger because of accidents and pollution.

“I hope that A.I. will never, ever become as deadly as [an] internal combustion engine is,” Schwarz said.

A.I.’s dangers can be hard to dismiss even for companies working on them, and Schwarz acknowledges that the technology can cause harm in the wrong hands.

“I am quite confident that A.I. will be used by bad actors, and yes it will cause real damage,” Schwarz said. “It can do a lot of damage in the hands of spammers, people who want to manipulate elections and so on.”

But some of that can be avoided, he said. “Once we see real harm, we have to ask ourselves the simple question: ‘Can we regulate that in a way where the good things that will be prevented by this regulation are less important?’” Schwarz said. “The principles should be the benefits from the regulation to our society should be greater than the cost to our society.”

Microsoft is focused on the good that A.I. can bring society and is working to develop A.I. to “help people achieve more” by making them more efficient, Schwarz said.

“We are optimistic about the future of A.I., and we think A.I. advances will solve many more challenges than they present, but we have also been consistent in our belief that when you create technologies that can change the world, you must also ensure that the technology is used responsibly,” a Microsoft spokesperson told Fortune.

Microsoft has been a key player in the recent surge of generative A.I. technology. The company has built a chatbot using technology from OpenAI and has incorporated it into a number of products. Microsoft also plans to invest $10 billion in OpenAI over several years, after having already pumped money into the startup in 2019 and 2021.

Schwarz’s warning about A.I. echoed, to a point, recent remarks by Geoffrey Hinton, a former Google VP and engineering fellow, who helped create some of the key technologies powering the widely used A.I. tools today and who is referred to as “the Godfather of A.I.” He warned that it may be tough to stop A.I. from being used for fraud.

“It is hard to see how you can prevent the bad actors from using it for bad things,” Hinton told the New York Times in an interview published on May 1.

“I console myself with the normal excuse: If I hadn’t done it, somebody else would have.”

One of Hinton’s concerns is the availability of A.I. tools that can create images and aggregate information in a matter of seconds. They could lead to the spread of fake content whose accuracy the average person would have trouble discerning.

While Schwarz and Hinton worry about how bad actors may misuse A.I., the two experts diverge in how they think A.I. may impact certain jobs.

During the WEF panel, Schwarz said people are “paranoid” about their work being replaced by A.I. and that they “shouldn’t be too worried” about it. But Hinton, who had worked at Google since 2013 until recently, said that there is a real risk to jobs in an A.I.-dominated work environment.

“It takes away the drudge work,” Hinton said. “It might take away more than that.”

Calls to halt advanced A.I. development

In March, over 25,000 tech experts—from academics to former executives—signed an open letter asking for a six-month pause in the development of advanced A.I. systems so that their impact could be better understood and regulated by governments. The letter argued that some systems, such as OpenAI’s GPT-4 introduced earlier that month, are “becoming human-competitive at general tasks,” threatening to help generate misinformation and potentially automating jobs at a large scale.

Executives at tech giants like Google and Microsoft have said that a six-month pause will not solve the problem. Among them is Alphabet and Google CEO Sundar Pichai.

“I think in the actual specifics of it, it’s not fully clear to me how you would do something like that today,” he said during a podcast interview in March, referring to the six-month moratorium. “To me, at least, there is no way to do this effectively without getting governments involved. So I think there’s a lot more thought that needs to go into it.”

Microsoft’s chief scientific officer told Fortune in an interview in April that there are alternatives to pausing A.I. development.

“To me, I would prefer to see more knowledge, and even an acceleration of research and development, rather than a pause for six months, which I am not sure if it would even be feasible,” said Microsoft’s Eric Horvitz. “In a larger sense, six months doesn’t really mean very much for a pause. We need to really just invest more in understanding and guiding and even regulating this technology—jump in, as opposed to pause.”

热读文章
热门视频
扫描二维码下载财富APP