立即打开
扎克伯格推行人工智能开源路线

扎克伯格推行人工智能开源路线

Paolo Confino 2023-07-20
Meta一直以来都是开源举措的支持者。

人工智能军备竞赛的最新事态显示,Meta祭出了潜力十足的杀器:该公司在7月18日宣布,它将免费对公众开放其大型语言模型Llama 2。此举与这一热议行业的其他首要参与者形成了鲜明的对比,例如谷歌(Google)和OpenAI,这两者到目前为止依然选择奉行模型保密路线。

Meta的首席执行官马克·扎克伯格在Facebook的一篇帖文中写道:“我认为,如果这个生态更开放,那么就将带来更大的进步,这也是我们开源Llama 2的原因。”

Meta的Llama 2模型将继续由微软(Microsoft)的Azure云服务提供支持。这两家公司曾经共同开发了今年2月发布的该产品之前的迭代版本,而且微软是Meta的云服务提供商。当然,微软还向OpenAI公司投资了至少100亿美元,后者是大热聊天机器人ChatGPT的开发商。

开源的利与弊

扎克伯格的决定并非没有争议。Meta一直以来都是开源举措的支持者。该做法的拥护者认为,此举将提升透明度,并避免强大的新技术被少数公司所垄断。反对者认为,这些工具将不可避免地被不良分子利用,他们会刻意或在不经意间漠视更广泛的公共安全。

其中一位批评者便是OpenAI自己。今年3月,OpenAI与其作为一家开源公司的初心以及其公司名背道而驰,让科技界一片哗然,其中包括特斯拉(Tesla)的首席执行官埃隆·马斯克。在科技博客The Verge的采访中,OpenAI的首席科学家与联合创始人伊利亚·苏茨克维尔将Meta的开源决策称之为技术性“错误”。他说:“在几年之内,所有人都会异常清楚地认识到,人工智能开源举措是不明智的。”

Meta认为,将这些工具开源会提升其安全性。理由是随着开发者不断微调其模型,并按照不同的目的进行定制,他们将揭晓诸多需要解决的潜在问题。

Meta在一则声明里称:“开放访问当今人工智能模型的渠道意味着一整代开发人员和研究人员都可以对其进行压力测试,并作为一个团体快速发现并解决问题。通过观察其他人如何使用这些工具,我们自己的团队能够从中学习,改善这些工具,并修补漏洞。”

Meta指出,新发布的模型已经经过了安全测试。该模型经历了外部第三方的对抗性测试。这类测试在人工智能研究界又被称为红队判研,它要求研究人员尝试将新系统用于人们心目中可以发挥其公众保护用途的确切场景,并借此来测试其安全功能。Meta还发布了可接受的样板使用政策,禁止将Llama用于犯罪活动、战争等类似用途。

另一家进军人工智能的主流科技公司亚马逊(Amazon)似乎想在这两种方式里找到一条折中路线。亚马逊的首席执行官安迪·贾西表示,公司计划通过订阅模式来提供访问其模型的渠道,尽管它不一定面向所有人开放,但不会走闭源路线。(财富中文网)

译者:冯丰

审校:夏林

人工智能军备竞赛的最新事态显示,Meta祭出了潜力十足的杀器:该公司在7月18日宣布,它将免费对公众开放其大型语言模型Llama 2。此举与这一热议行业的其他首要参与者形成了鲜明的对比,例如谷歌(Google)和OpenAI,这两者到目前为止依然选择奉行模型保密路线。

Meta的首席执行官马克·扎克伯格在Facebook的一篇帖文中写道:“我认为,如果这个生态更开放,那么就将带来更大的进步,这也是我们开源Llama 2的原因。”

Meta的Llama 2模型将继续由微软(Microsoft)的Azure云服务提供支持。这两家公司曾经共同开发了今年2月发布的该产品之前的迭代版本,而且微软是Meta的云服务提供商。当然,微软还向OpenAI公司投资了至少100亿美元,后者是大热聊天机器人ChatGPT的开发商。

开源的利与弊

扎克伯格的决定并非没有争议。Meta一直以来都是开源举措的支持者。该做法的拥护者认为,此举将提升透明度,并避免强大的新技术被少数公司所垄断。反对者认为,这些工具将不可避免地被不良分子利用,他们会刻意或在不经意间漠视更广泛的公共安全。

其中一位批评者便是OpenAI自己。今年3月,OpenAI与其作为一家开源公司的初心以及其公司名背道而驰,让科技界一片哗然,其中包括特斯拉(Tesla)的首席执行官埃隆·马斯克。在科技博客The Verge的采访中,OpenAI的首席科学家与联合创始人伊利亚·苏茨克维尔将Meta的开源决策称之为技术性“错误”。他说:“在几年之内,所有人都会异常清楚地认识到,人工智能开源举措是不明智的。”

Meta认为,将这些工具开源会提升其安全性。理由是随着开发者不断微调其模型,并按照不同的目的进行定制,他们将揭晓诸多需要解决的潜在问题。

Meta在一则声明里称:“开放访问当今人工智能模型的渠道意味着一整代开发人员和研究人员都可以对其进行压力测试,并作为一个团体快速发现并解决问题。通过观察其他人如何使用这些工具,我们自己的团队能够从中学习,改善这些工具,并修补漏洞。”

Meta指出,新发布的模型已经经过了安全测试。该模型经历了外部第三方的对抗性测试。这类测试在人工智能研究界又被称为红队判研,它要求研究人员尝试将新系统用于人们心目中可以发挥其公众保护用途的确切场景,并借此来测试其安全功能。Meta还发布了可接受的样板使用政策,禁止将Llama用于犯罪活动、战争等类似用途。

另一家进军人工智能的主流科技公司亚马逊(Amazon)似乎想在这两种方式里找到一条折中路线。亚马逊的首席执行官安迪·贾西表示,公司计划通过订阅模式来提供访问其模型的渠道,尽管它不一定面向所有人开放,但不会走闭源路线。(财富中文网)

译者:冯丰

审校:夏林

In the latest development in the A.I. arms race, Meta has a potential bombshell: It will make its large language model, Llama 2, available for free to the public, the company announced on July 18. The move comes in stark contrast to other major players in the hot-button industry, like Google and OpenAI, who have so far opted to keep their models confidential.

“I believe it would unlock more progress if the ecosystem were more open, which is why we’re open-sourcing Llama 2,” Meta CEO Mark Zuckeberg wrote in a post on Facebook.

Meta’s Llama 2 model will continue to be powered by Microsoft’s Azure cloud services. The two companies had partnered on an earlier iteration of the product released in February and Microsoft is Meta’s cloud services provider. Of course, Microsoft has also invested at least $10 billion in OpenAI, maker of the mega-popular chatbot ChatGPT.

The pros and cons

Zuckerberg’s decision is not uncontroversial. Proponents of the open-source approach, which Meta has long supported, believe it encourages transparency and avoids consolidating powerful new technologies in the hands of a select few. Critics believe the tools will inevitably be coopted by bad actors, who will either intentionally or inadvertently disregard broader public safety.

One of those critics is OpenAI itself. In March, OpenAI went back on its origins as an open-source company—hence the name—drawing raised eyebrows from the tech world including Tesla CEO Elon Musk. The chief scientist and co-founder of OpenAI Ilya Sutskever, called the company’s decision to open-source its tech “wrong,” in an interview with The Verge. “In a few years it’s going to be completely obvious to everyone that open-sourcing AI is just not wise,” he said.

Meta is taking the view that opening these tools to the public will make them safer. The rationale is that as developers tinker with their models, customizing them for a variety of purposes, they’ll uncover potential problems to address.

“Opening access to today’s AI models means a generation of developers and researchers can stress test them, identifying and solving problems fast, as a community,” Meta said in a statement. “By seeing how these tools are used by others, our own teams can learn from them, improve those tools, and fix vulnerabilities.”

The newly released model has already been tested for safety, according to Meta. The model underwent external adversarial testing from third parties. The practice, referred to as red-teaming in the world of A.I. research, tests safety features by asking researchers to attempt to use a new system for the exact use cases one might hope to protect the public against. Meta also released a boilerplate acceptable use policy that prohibits using Llama in criminal activity, warfare, and the like.

Amazon, another of the major tech companies entering the A.I., seems to want to split the difference between the two approaches. Amazon CEO Andy Jassy said the company plans to offer access to its models via a subscription model, which while not necessarily open to everyone, still wouldn’t keep the tech from the public.

热读文章
热门视频
扫描二维码下载财富APP