立即打开
假新闻2.0:人工智能将搅乱美国大选?

假新闻2.0:人工智能将搅乱美国大选?

JEREMY KAHN 2023-04-24
社交媒体已经对此前的大选造成严重破坏。现在,生成式人工智能阴森逼近,我们准备好了吗?

预计人工智能将为那些针对选民的虚假信息提供不懈动力——但也有可能为打击这种虚假信息做出贡献。图片来源:SCOTTY PERRY—BLOOMBERG/GETTY IMAGES

2月27日,在如火如荼的芝加哥市长选举前夕,一个自称“芝加哥湖畔新闻”(Chicago Lakefront News)的推特账号发布了候选人保罗•瓦拉斯(Paul Vallas)的一张照片和一段音频。此前担任市政府预算主任和学区主管的瓦拉斯,是四位角逐芝加哥最高职位的参选人之一。根据这段音频,他似乎在刻意淡化警察枪击事件,说“在我那个时代,”一位警察在其职业生涯中可能会杀死多达18位平民,“没有人会眨一下眼睛。”这段视频继续说道:“这种‘停止为警察提供资金’的言论将导致芝加哥陷于动荡,无法无天。我们现在需要做的,不是撤销警察资金,而是重新为他们提供资金支持。”

事实证明,瓦拉斯并没有说过这些话。这段视频很快就被证伪,很可能是用某个容易访问,用于克隆声音的人工智能软件制作而成。在视频发布前几天才注册的“芝加哥湖畔新闻”很快就删除了这条推文——但在此之前,它已经被成千上万人看到并广泛转发,一些人显然上当了,相信“录音”是真实的。这段音频或许对市长选举影响甚微:瓦拉斯赢得了多数选票,并进入第二轮决选阶段,不过最终,他以微弱劣势败北。但专家们表示,这种克隆瓦拉斯声音的做法堪称一次令人惊悚的预演:拜人工智能的飞速发展所赐,2024年美国总统大选很可能会遭遇类似虚假信息的侵袭。

这些新型人工智能系统被统称为“生成式人工智能”。比如,最近大火特火的文本处理工具ChatGPT只需几个提示,就能生成学生期末论文和商业电子邮件。但它只是这种技术的一个例子而已。一家名为ElevenLabs的公司发布了一款可以利用仅仅几秒长的样本克隆声音的软件。此外,现在任何人都可以通过订购OpenAI的DALL-E 2、Stable Diffusion或Midjourney等软件生成逼真的静态图像。尽管人工智能利用文本提示创建视频的能力还处于初级阶段,比如纽约初创公司Runway开发的软件可以生成几秒钟长的视频片段,但精通深度伪造技术的骗子完全可以制作出足以乱真,让许多人上当受骗的假视频。

纽约大学(New York University)认知科学名誉教授、人工智能专家加里·马库斯(Gary Marcus)忧心忡忡地表示:“这真的令人不寒而栗,寝食难安。”他一直在警告公众,支撑这项技术的大型语言模型是民主面临的一大威胁。尽管我们已经在过去几届大选中见证过人们利用社交媒体发布和传播虚假信息的景象,但人工智能的强悍能力远非人类所能企及——正是这种以前所未有的数量和速度传播假消息的能力,以及非母语人士现在只需要敲几下键盘就可以用大多数语言写出通畅文本这一事实,使得这种新技术成为一个巨大威胁。“很难想象人工智能生成的虚假信息不会在下次大选中掀起波澜。”他说。

马库斯指出,对于像俄罗斯这样的民族国家来说,新的人工智能工具特别有用。在俄罗斯,宣传的目标与其说是说服,倒不如说是用海量谎言和半真半假的信息压制目标受众,让其无从辨伪。兰德公司(Rand Corporation)的一项研究将这种策略称为“谎言水管”。其目的是制造混乱,破坏信任,使人们更倾向于相信经由社会关系获得的信息,而不是专家分享的信息。

并不是每个人都确信,如今的情势像马库斯描述的那样惊悚——至少现在还不是。专门研究人工智能和新兴技术影响的布鲁金斯学会(Brookings Institution)研究员克里斯·梅瑟罗尔(Chris Meserole)指出,最近几届总统选举已经出现了非常高水平的人造虚假信息,他不确定新的人工智能语言模型会带来显著变化。“我认为这不会彻底改变游戏规则,2024年预计不会跟2020年或2016年有明显不同。”他说。

梅瑟罗尔还认为,视频深度伪造技术还不足以搅乱2024年大选(尽管他认为,2028年的情况恐怕会有所不同)。真正让梅瑟罗尔担忧的是语音克隆。他指出,一个很容易想象的场景是,一段音频在选举的关键时刻浮出水面,它记录的据称是候选人在私下场合发表的可耻言论。尽管在场人士可能会否认音频的真实性,但外人恐怕很难确定。

那么,虚假叙事究竟是会说服任何人,还是只会强化一些人的现有信念?牛津互联网研究所(Oxford Internet Institute)的技术与监管教授桑德拉·瓦赫特(Sandra Wachter)表示,相关研究给出了相互矛盾的结论。但在一场势均力敌的选举中,即便是这种边际效应也可能是决定性的。

面对机器生成式假新闻的威胁,一些人认为人工智能本身可能是最好的防御手段。在西班牙,一家名为Newtral,专门对政客言论进行事实核查的公司,正在试验类似于ChatGPT的大型语言模型。首席技术官鲁本·米格斯·佩雷斯(Ruben Miguez Perez)表示,这些模型不能真正验证事实,但可以帮助人们更好地揭穿谎言。这种技术能够在一段内容做出值得核查的事实声明时进行标记,还能检测其他宣扬相同叙事的内容,这一过程称为“声明匹配”。与其他机器学习技术结合使用,这些大型语言模型也有望根据内容蕴含的情绪来评估某种说法是错误信息的可能性。米格斯·佩雷斯指出,借助这些方法,Newtral已经将识别可疑陈述所耗费的时间减少了70%到80%。

大型社交媒体平台,比如脸书(Facebook)和谷歌(Google)旗下的YouTube,一直在研究具备类似功能的人工智能系统。Facebook的母公司Meta表示,在2020年总统大选前夕,这家社交平台为超过1.8亿条被第三方事实核查员揭穿的内容贴上了警告标识。尽管如此,仍然有大量虚假信息蒙混过关。事实上,人工智能模型尤其难以捕捉那些借助图像和文本来传递观点的“表情包”。Meta宣称,自2020年大选以来,其人工智能系统获得了长足进步,但虚假叙事散布者正在持续不断地设计一批批人工智能模型从未见过的新变体。

马库斯指出,合理的监管或许能发挥一定作用:政府应该要求大型语言模型的创建者刻上“数字水印”,从而让其他算法更容易识别人工智能生成的内容。作为ChatGPT的创建者,OpenAI确实谈过这种水印,但尚未付诸实施。与此同时,该公司还发布了免费的人工智能内容检测软件,但这种软件只在大约三分之一的情况下有效。马库斯还表示,国会应该将大规模制造和传播虚假信息定为非法行为。尽管第一修正案的支持者可能会高声反对,但宪法的制定者无论如何都想象不到未来有一天,人们只需按一下按钮,就能利用技术生成无数令人信服的谎言。

话说回来,美利坚建国之时,即18世纪末期,也是一个传播虚假信息的黄金时代。层出不穷的匿名传单和党派报纸肆无忌惮地兜售政敌和对立党派的卑鄙故事。牛津大学的瓦赫特指出,民主在那时得以幸存。也许这一次也会如此。但我们很可能会见证一场史无前例的选举活动。(财富中文网)

译者:任文科

2月27日,在如火如荼的芝加哥市长选举前夕,一个自称“芝加哥湖畔新闻”(Chicago Lakefront News)的推特账号发布了候选人保罗•瓦拉斯(Paul Vallas)的一张照片和一段音频。此前担任市政府预算主任和学区主管的瓦拉斯,是四位角逐芝加哥最高职位的参选人之一。根据这段音频,他似乎在刻意淡化警察枪击事件,说“在我那个时代,”一位警察在其职业生涯中可能会杀死多达18位平民,“没有人会眨一下眼睛。”这段视频继续说道:“这种‘停止为警察提供资金’的言论将导致芝加哥陷于动荡,无法无天。我们现在需要做的,不是撤销警察资金,而是重新为他们提供资金支持。”

事实证明,瓦拉斯并没有说过这些话。这段视频很快就被证伪,很可能是用某个容易访问,用于克隆声音的人工智能软件制作而成。在视频发布前几天才注册的“芝加哥湖畔新闻”很快就删除了这条推文——但在此之前,它已经被成千上万人看到并广泛转发,一些人显然上当了,相信“录音”是真实的。这段音频或许对市长选举影响甚微:瓦拉斯赢得了多数选票,并进入第二轮决选阶段,不过最终,他以微弱劣势败北。但专家们表示,这种克隆瓦拉斯声音的做法堪称一次令人惊悚的预演:拜人工智能的飞速发展所赐,2024年美国总统大选很可能会遭遇类似虚假信息的侵袭。

这些新型人工智能系统被统称为“生成式人工智能”。比如,最近大火特火的文本处理工具ChatGPT只需几个提示,就能生成学生期末论文和商业电子邮件。但它只是这种技术的一个例子而已。一家名为ElevenLabs的公司发布了一款可以利用仅仅几秒长的样本克隆声音的软件。此外,现在任何人都可以通过订购OpenAI的DALL-E 2、Stable Diffusion或Midjourney等软件生成逼真的静态图像。尽管人工智能利用文本提示创建视频的能力还处于初级阶段,比如纽约初创公司Runway开发的软件可以生成几秒钟长的视频片段,但精通深度伪造技术的骗子完全可以制作出足以乱真,让许多人上当受骗的假视频。

纽约大学(New York University)认知科学名誉教授、人工智能专家加里·马库斯(Gary Marcus)忧心忡忡地表示:“这真的令人不寒而栗,寝食难安。”他一直在警告公众,支撑这项技术的大型语言模型是民主面临的一大威胁。尽管我们已经在过去几届大选中见证过人们利用社交媒体发布和传播虚假信息的景象,但人工智能的强悍能力远非人类所能企及——正是这种以前所未有的数量和速度传播假消息的能力,以及非母语人士现在只需要敲几下键盘就可以用大多数语言写出通畅文本这一事实,使得这种新技术成为一个巨大威胁。“很难想象人工智能生成的虚假信息不会在下次大选中掀起波澜。”他说。

马库斯指出,对于像俄罗斯这样的民族国家来说,新的人工智能工具特别有用。在俄罗斯,宣传的目标与其说是说服,倒不如说是用海量谎言和半真半假的信息压制目标受众,让其无从辨伪。兰德公司(Rand Corporation)的一项研究将这种策略称为“谎言水管”。其目的是制造混乱,破坏信任,使人们更倾向于相信经由社会关系获得的信息,而不是专家分享的信息。

并不是每个人都确信,如今的情势像马库斯描述的那样惊悚——至少现在还不是。专门研究人工智能和新兴技术影响的布鲁金斯学会(Brookings Institution)研究员克里斯·梅瑟罗尔(Chris Meserole)指出,最近几届总统选举已经出现了非常高水平的人造虚假信息,他不确定新的人工智能语言模型会带来显著变化。“我认为这不会彻底改变游戏规则,2024年预计不会跟2020年或2016年有明显不同。”他说。

梅瑟罗尔还认为,视频深度伪造技术还不足以搅乱2024年大选(尽管他认为,2028年的情况恐怕会有所不同)。真正让梅瑟罗尔担忧的是语音克隆。他指出,一个很容易想象的场景是,一段音频在选举的关键时刻浮出水面,它记录的据称是候选人在私下场合发表的可耻言论。尽管在场人士可能会否认音频的真实性,但外人恐怕很难确定。

那么,虚假叙事究竟是会说服任何人,还是只会强化一些人的现有信念?牛津互联网研究所(Oxford Internet Institute)的技术与监管教授桑德拉·瓦赫特(Sandra Wachter)表示,相关研究给出了相互矛盾的结论。但在一场势均力敌的选举中,即便是这种边际效应也可能是决定性的。

面对机器生成式假新闻的威胁,一些人认为人工智能本身可能是最好的防御手段。在西班牙,一家名为Newtral,专门对政客言论进行事实核查的公司,正在试验类似于ChatGPT的大型语言模型。首席技术官鲁本·米格斯·佩雷斯(Ruben Miguez Perez)表示,这些模型不能真正验证事实,但可以帮助人们更好地揭穿谎言。这种技术能够在一段内容做出值得核查的事实声明时进行标记,还能检测其他宣扬相同叙事的内容,这一过程称为“声明匹配”。与其他机器学习技术结合使用,这些大型语言模型也有望根据内容蕴含的情绪来评估某种说法是错误信息的可能性。米格斯·佩雷斯指出,借助这些方法,Newtral已经将识别可疑陈述所耗费的时间减少了70%到80%。

大型社交媒体平台,比如脸书(Facebook)和谷歌(Google)旗下的YouTube,一直在研究具备类似功能的人工智能系统。Facebook的母公司Meta表示,在2020年总统大选前夕,这家社交平台为超过1.8亿条被第三方事实核查员揭穿的内容贴上了警告标识。尽管如此,仍然有大量虚假信息蒙混过关。事实上,人工智能模型尤其难以捕捉那些借助图像和文本来传递观点的“表情包”。Meta宣称,自2020年大选以来,其人工智能系统获得了长足进步,但虚假叙事散布者正在持续不断地设计一批批人工智能模型从未见过的新变体。

马库斯指出,合理的监管或许能发挥一定作用:政府应该要求大型语言模型的创建者刻上“数字水印”,从而让其他算法更容易识别人工智能生成的内容。作为ChatGPT的创建者,OpenAI确实谈过这种水印,但尚未付诸实施。与此同时,该公司还发布了免费的人工智能内容检测软件,但这种软件只在大约三分之一的情况下有效。马库斯还表示,国会应该将大规模制造和传播虚假信息定为非法行为。尽管第一修正案的支持者可能会高声反对,但宪法的制定者无论如何都想象不到未来有一天,人们只需按一下按钮,就能利用技术生成无数令人信服的谎言。

话说回来,美利坚建国之时,即18世纪末期,也是一个传播虚假信息的黄金时代。层出不穷的匿名传单和党派报纸肆无忌惮地兜售政敌和对立党派的卑鄙故事。牛津大学的瓦赫特指出,民主在那时得以幸存。也许这一次也会如此。但我们很可能会见证一场史无前例的选举活动。(财富中文网)

译者:任文科

ON FEB. 27, the eve of Chicago’s mayoral election, a Twitter account calling itself Chicago Lakefront News posted an image of candidate Paul Vallas, a former city budget director and school district chief who was in a tight four-way contest for the city’s top job, along with an audio recording. On the soundtrack, Vallas seems to downplay police shootings, saying that “in my day” a cop could kill as many as 18 civilians in his career and “no one would bat an eye.” The audio continues, “This ‘Defund the Police’ rhetoric is going to cause unrest and lawlessness in the city of Chicago. We need to stop defunding the police and start refunding them.”

As it turned out, Vallas said none of those things. The audio was quickly debunked as a fake, likely created with easily accessible artificial intelligence software that clones voices. The Chicago Lakefront News account, which had been set up just days before the video was posted, quickly deleted the post—but not before the tweet had been seen by thousands and widely recirculated, with some apparently tricked into believing the “recording” was authentic. The audio had little impact on the mayoral race: Vallas won a plurality and was headed toward a runoff election at press time. But the Vallas voice clone is a scary preview of the sort of misinformation experts say we should expect to face in the 2024 U.S. presidential election, thanks to rapid advances in A.I. capabilities.

These new A.I. systems are collectively referred to as “generative A.I.” ChatGPT, the popular text-based tool that spits out student term papers and business emails with a few prompts, is just one example of the technology. A company called ElevenLabs has released software that can clone voices from a sample just a few seconds long, and anyone can now order up photorealistic still images using software such as OpenAI’s DALL-E 2, Stable Diffusion, or Midjourney. While the ability to create video from a text prompt is more nascent—New York–based startup Runway has created software that produces clips a few seconds in length—a scammer skilled in deepfake techniques can create fake videos good enough to fool many people.

“We should be scared shitless,” says Gary Marcus, professor emeritus of cognitive science at New York University and an A.I. expert who has been trying to raise the alarm about the dangers posed to democracy by the large language models underpinning the tech. While people can already write and distribute misinformation (as we’ve seen with social media in past elections), it is the ability to do so at unprecedented volume and speed—and the fact that non-native speakers can now craft fluent prose in most languages with a few keystrokes—that makes the new technology such a threat. “It is hard to see how A.I.-generated misinformation will not become a major force in the next election,” he says.

The new A.I. tools, Marcus says, are particularly useful for a nation-state, such as Russia, where the goal of propaganda is less about persuasion than simply overwhelming a target audience with an avalanche of lies and half-truths. A Rand Corporation study dubbed this tactic “the firehose of falsehood.” The objective, it concluded, was to sow confusion and destroy trust, making people more likely to believe information shared by social connections than by experts.

Not everyone is sure the situation is as dire as Marcus suggests—at least not yet. Chris Meserole, a fellow at the Brookings Institution who specializes in the impact of A.I. and emerging technologies, says recent presidential elections have already witnessed such high levels of human-written misinformation that he isn’t sure that the new A.I. language models will make a noticeable difference. “I don’t think this will completely change the game and 2024 will look significantly different than 2020 or 2016,” he says.

Meserole also doesn’t think video deepfake technology is good enough yet to play a big role in 2024 (though he says that could change in 2028). What does worry Meserole today is voice clones. He could easily imagine an audio clip surfacing at a key moment in an election, purporting to be a recording of a candidate saying something scandalous in a private meeting. Those present in the meeting might deny the clip’s veracity, but it would be difficult for anyone to know for sure.

Studies have come to conflicting conclusions on whether false narratives persuade anyone or only reinforce existing beliefs, says Sandra Wachter, a professor of technology and regulation at the Oxford Internet Institute. But in a close election, even such marginal effects could be decisive.

Faced with the threat of machine-generated fake news, some believe A.I. may itself offer the best defense. In Spain, a company called Newtral that specializes in factchecking claims made by politicians is experimenting with large language models similar to those that power ChatGPT. While these models can’t actually verify facts, they can make humans better at debunking lies, says Newtral chief technology officer Ruben Miguez Perez. The technology can flag when a piece of content is making a factual claim worth checking, and it can detect other content promoting the same narrative, a process called “claim matching.” By pairing large language models with other machine learning software, Miguez Perez says it’s also possible to assess the likelihood of something being misinformation based on the sentiments expressed in the content. Using these methods, Newtral has cut the time it takes to identify statements worth fact-checking by 70% to 80%, he says.

The large social media platforms, such as Meta and Google’s YouTube, have been working on A.I. systems that do similar things. In the run-up to the 2020 U.S. presidential election, Facebook parent company Meta says it displayed warnings on more than 180 million pieces of content that were debunked by third-party fact-checkers. Still, plenty of misinformation slips through. Memes, which rely on both images and text to convey a point, are particularly tricky for A.I. models to catch. And while Meta says its systems have only gotten better since the 2020 election, the people promoting false narratives are continually devising new variations that A.I. models haven’t seen before.

What might make some difference, Marcus says, is sensible regulation: Those creating large language models should be required to create “digital watermarks” that make it easier for other algorithms to identify A.I.-created content. OpenAI, ChatGPT’s creator, has talked about this kind of watermarking, but has yet to implement it. Meanwhile, it has released free A.I.-content detection software, but it works only in about a third of cases. Marcus also says Congress should make it illegal to manufacture and distribute misinformation at scale. While First Amendment advocates might object, he says the framers of the Constitution never imagined technology that could produce infinite reams of convincing lies at the press of a button.

Then again, the late 18th century, when the U.S. was founded, was a golden era of misinformation as well, with anonymous pamphlets and partisan newspapers peddling scurrilous tales about opposing politicians and parties. Democracy survived then, notes Oxford’s Wachter. So perhaps it will this time too. But it could be a campaign unlike any we’ve ever witnessed before.

热读文章
热门视频
扫描二维码下载财富APP