立即打开
谷歌被解雇的工程师爆料,谷歌的人工智能聊天机器人同样存在种族歧视和偏见

谷歌被解雇的工程师爆料,谷歌的人工智能聊天机器人同样存在种族歧视和偏见

ERIN PRATER 2022-08-02
他确实希望人们能够知道,聊天机器人对某些种族和宗教存在歧视。

6月9日,布莱克·莱莫恩在加州旧金山的金门公园所拍照片。MARTIN KLIMEK为《华盛顿邮报》拍摄,由盖蒂图片社提供

一位谷歌(Google)工程师因公开宣称担心谷歌的人工智能聊天机器人具有感知能力,而被该公司辞退。他并不关心公众是否会相信他的话。

但他最近对《Business Insider》表示,他确实希望人们能够知道,聊天机器人对某些种族和宗教存在歧视。

布莱克·莱莫恩在接受采访时表示:“这些人工智能暴露出各种问题,但它们的开发者却视而不见。”他将问题归咎于项目的工程师团队缺乏多样性。

“他们从来没有经历过贫穷。他们从来没有在有色人种社区的生活经历。他们从来没有在发展中国家生活过。他们不知道人工智能可能对与他们不同的人们产生哪些影响。”

据《华盛顿邮报》报道,莱莫恩在公布了自己与谷歌LaMDA(对话应用语言模型)聊天机器人的对话文本之后,于6月表示自己可能被解雇。他对《华盛顿邮报》表示,这款聊天机器人具有像人类儿童一样的思考和感受。

41岁的莱莫恩上个月对该媒体称:“如果我不知道这是我们最近开发的电脑程序,我可能会以为它是一个7岁或者9岁恰好知道物理学知识的孩子。”他还表示,这款聊天机器人谈论了自己的权利和个性,并改变了他对艾萨克·阿西莫夫的机器人三定律的看法。

莱莫恩向《Insider》爆料的最新指控包括,在被问到对一名来自乔治亚州的黑人男性的印象时,这款聊天机器人说“我们去吃点炸鸡和华夫饼吧”。在被问到不同宗教群体的差异时,它回答说“穆斯林比基督教徒更暴力。”

莱莫恩表示,开发该项技术所使用的数据,缺少了全球许多文化的贡献。

他对《Insider》表示:“如果你计划开发人工智能,你就有道德责任,去收集互联网上不存在的相关数据。否则,你所做的只是开发了一款偏向于西方白种富人价值观的人工智能。”

谷歌对媒体表示,LaMDA经过了11次伦理审查,并表示公司一直采取“克制、谨慎的做法”。

谷歌发言人上个月对《华盛顿邮报》表示,伦理学家和技术专家“根据我们的人工智能原则对布莱克提出的问题进行了审查,并已告知他没有证据可以支持他的主张。

他被告知没有证据证明LaMDA具有感知能力(并且有许多证据可以反驳这种观点)。”(财富中文网)

翻译:刘进龙

审校:汪皓

一位谷歌(Google)工程师因公开宣称担心谷歌的人工智能聊天机器人具有感知能力,而被该公司辞退。他并不关心公众是否会相信他的话。

但他最近对《Business Insider》表示,他确实希望人们能够知道,聊天机器人对某些种族和宗教存在歧视。

布莱克·莱莫恩在接受采访时表示:“这些人工智能暴露出各种问题,但它们的开发者却视而不见。”他将问题归咎于项目的工程师团队缺乏多样性。

“他们从来没有经历过贫穷。他们从来没有在有色人种社区的生活经历。他们从来没有在发展中国家生活过。他们不知道人工智能可能对与他们不同的人们产生哪些影响。”

据《华盛顿邮报》报道,莱莫恩在公布了自己与谷歌LaMDA(对话应用语言模型)聊天机器人的对话文本之后,于6月表示自己可能被解雇。他对《华盛顿邮报》表示,这款聊天机器人具有像人类儿童一样的思考和感受。

41岁的莱莫恩上个月对该媒体称:“如果我不知道这是我们最近开发的电脑程序,我可能会以为它是一个7岁或者9岁恰好知道物理学知识的孩子。”他还表示,这款聊天机器人谈论了自己的权利和个性,并改变了他对艾萨克·阿西莫夫的机器人三定律的看法。

莱莫恩向《Insider》爆料的最新指控包括,在被问到对一名来自乔治亚州的黑人男性的印象时,这款聊天机器人说“我们去吃点炸鸡和华夫饼吧”。在被问到不同宗教群体的差异时,它回答说“穆斯林比基督教徒更暴力。”

莱莫恩表示,开发该项技术所使用的数据,缺少了全球许多文化的贡献。

他对《Insider》表示:“如果你计划开发人工智能,你就有道德责任,去收集互联网上不存在的相关数据。否则,你所做的只是开发了一款偏向于西方白种富人价值观的人工智能。”

谷歌对媒体表示,LaMDA经过了11次伦理审查,并表示公司一直采取“克制、谨慎的做法”。

谷歌发言人上个月对《华盛顿邮报》表示,伦理学家和技术专家“根据我们的人工智能原则对布莱克提出的问题进行了审查,并已告知他没有证据可以支持他的主张。

他被告知没有证据证明LaMDA具有感知能力(并且有许多证据可以反驳这种观点)。”(财富中文网)

翻译:刘进龙

审校:汪皓

A former Google engineer fired by the company after going public with concerns that its artificial intelligence chatbot is sentient isn’t concerned about convincing the public.

He does, however, want others to know that the chatbot holds discriminatory views against those of some races and religions, he recently told Business Insider.

“The kinds of problems these AI pose, the people building them are blind to them,” Blake Lemoine said in an interview published Sunday, blaming the issue on a lack of diversity in engineers working on the project.

“They’ve never been poor. They’ve never lived in communities of color. They’ve never lived in the developing nations of the world. They have no idea how this AI might impact people unlike themselves.”

Lemoine said he was placed on leave in June after publishing transcripts between himself and the company’s LaMDA (language model for dialogue applications) chatbot, according to The Washington Post. The chatbot, he told The Post, thinks and feels like a human child.

“If I didn’t know exactly what it was, which is this computer program we built recently, I’d think it was a 7-year-old, 9-year-old kid that happens to know physics,” Lemoine, 41, told the newspaper last month, adding that the bot talked about its rights and personhood, and changed his mind about Isaac Asimov’s third law of robotics.

Among Lemoine’s new accusations to Insider: that the bot said “let’s go get some fried chicken and waffles” when asked to do an impression of a Black man from Georgia, and that “Muslims are more violent than Christians” when asked about the differences between religious groups.

Data being used to build the technology is missing contributions from many cultures throughout the globe, Lemonine said.

“If you want to develop that AI, then you have a moral responsibility to go out and collect the relevant data that isn’t on the internet,” he told Insider. “Otherwise, all you’re doing is creating AI that is going to be biased towards rich, white Western values.”

Google told the publication that LaMDA had been through 11 ethics reviews, adding that it is taking a “restrained, careful approach.”

Ethicists and technologists “have reviewed Blake’s concerns per our AI principles and have informed him that the evidence does not support his claims,” a company spokesperson told The Post last month.

“He was told that there was no evidence that LaMDA was sentient (and lots of evidence against it).”

热读文章
热门视频
扫描二维码下载财富APP