立即打开
NASA为何要将AI机器人送上火星?

NASA为何要将AI机器人送上火星?

JANET VERTESI,THE CONVERSATION 2023-10-02
在带来生存威胁的同时,人工智能还会带来商业福利,如更高的效率、更高的利润率和更多的休闲时间。

在这张美国国家航空航天局(NASA)提供的图片中,2021年2月18日,在加利福尼亚州帕萨迪纳的美国国家航空航天局喷气推进实验室,美国国家航空航天局“毅力号”火星车团队成员在航天器成功着陆火星传回第一批图像时做出上述反应。图片来源:BILL INGALLS/NASA VIA GETTY IMAGES

自ChatGPT于2022年年底发布以来,许多新闻媒体都报道了人工智能带来的伦理威胁。科技专家警告说,机器人杀手决心要灭绝人类,而世界经济论坛则预测,机器将抢走人类的工作。

科技行业在投资人工智能提高生产力工具的同时,也在大幅裁员。好莱坞的编剧和演员正在罢工,以保护他们的工作和肖像权。学者们不断揭示这些系统是如何加剧现有的偏见或创造毫无意义的工作——以及无数其他问题。

有一种更好的方式将人工智能引入工作场所。作为一名与美国国家航空航天局机器人航天器团队合作的社会学家,我知道这一方法,因为我亲眼目睹过。

我研究的科学家和工程师们正忙着借助配备人工智能的火星车探索火星表面。但他们的工作并非科幻小说中的幻想。这是一个机器智能和人类智慧结合在一起追求共同目标的例子。

这些机器人不是取代人类,而是协助我们拓展和完善人类的特质。在此过程中,他们避免了常见的道德陷阱,并为与人工智能合作指明了人道主义路线。

人工智能的替代神话

机器人杀手和失业的故事说明了“替代神话”是如何主导人们对人工智能的看法的。从这个角度来看,人类可以而且将会被机器自动化所取代。

在带来生存威胁的同时,人工智能还会带来商业福利,如更高的效率、更高的利润率和更多的休闲时间。

经验证据表明,自动化并不能降低成本。相反,它通过淘汰地位低下的工人,增加了留下来的地位较高的工人的工资成本,从而加剧了不平等。与此同时,当今的生产力工具激励员工为雇主多干活,而不是少干活。

直接替代的替代方案是“混合自主”系统,即人和机器人协同工作。例如,自动驾驶汽车必须经过编程,才能实现在实际路况中与人类驾驶员共同驾驶汽车。之所以说自主是“混合的”,是因为人类和机器人在同一个系统中进行相关操作,他们的行为会相互影响。

然而,混合自主往往被视为迈向替代的一大步骤。它可能会导致系统中的人类仅仅是训练、管理或教授人工智能工具。这让人类背上了“幽灵工作”的包袱——程序员们希望机器学习很快就能淘汰那些无需动脑且零碎的任务。

替代引发了人工智能伦理方面的危险信号。诸如标记内容以训练人工智能或清理脸书(Facebook)帖子之类的工作通常涉及创伤性任务,而且是由南半球的低薪劳动力完成的。大批自动驾驶汽车的设计者痴迷于“电车难题”——决定何时或是否碾压行人是合乎道德的(一辆有轨电车驶来,前方的轨道上有5个人,片刻之后这5个人就会被电车碾压致死;此时你手边有一个拉杆,拉动之后电车会变道,这5个人可以幸免于难,但变道后的轨道上也有1个人,这个人将被电车碾压致死。考虑以上情形,你是否应该拉动拉杆)。

但我对美国国家航空航天局机器人航天器团队的研究表明,当公司拒绝“替代神话”,转而选择组建人机团队时,人工智能的许多伦理问题就会消失。

拓展而非替代

强大的人机团队在拓展和增强人类能力而不是取而代之时表现更好。工程师们制造出的机器可以完成人类无法完成的工作。然后,他们将机器和人力巧妙地结合在一起,可以朝着共同的目标迈进。

通常情况下,这种团队合作意味着让机器人去做对人类身体有危险的工作。扫雷、搜救、太空行走和深海机器人都是现实世界中的例子。

团队合作还意味着充分利用机器人和人类感官或智能的综合优势。毕竟,机器人拥有许多人类不具备的能力,反之亦然。

例如,人类在火星上只能看到一直延伸到地平线光线昏暗、尘土飞扬的红色地形。因此,工程师在火星车上配备了相机滤镜,以“看到”人类在红外线中看不到的光的波长,从而传回色彩艳丽的伪彩色照片。

与此同时,火星车上的车载人工智能无法得出科学发现。只有将色彩斑斓的传感器结果与专家讨论相结合,科学家才能利用这些机器人的眼睛揭开火星的新真相。

尊重数据

人工智能面临的另一项伦理挑战是如何收集和使用数据。生成式人工智能在未经艺术家和作家同意的情况下使用他们的作品进行训练,商业数据集充斥着偏见,而ChatGPT在回答问题时会产生“幻觉”。

人工智能训练时使用这些数据在现实世界中造成的后果包括诉讼和种族定性。

火星上的机器人也依靠数据、处理能力和机器学习技术来完成工作。但它们需要的数据是视觉和距离信息,以生成可驾驶路径或推荐绝妙的新图像。

通过关注它们周围的世界而不是我们的社会世界,这些机器人系统避免了困扰当今人工智能的监视、偏见和剥削等问题。

关怀伦理

机器人与人类的情感完美融合后,它们可以通过激发人类的情感来团结与之共事的群体。例如,经验丰富的士兵在战场上悼念损坏的无人机,家人会为他们的扫地机器人(Roombas)起名并赋予其个性。

当勇气号和机遇号探测器受到火星沙尘暴的威胁时,我看到美国国家航空航天局的工程师们焦虑不安,流下了眼泪。

与拟人化(将人类特征投射到机器上)不同,这种感觉源于对机器的关怀。它是在日常互动、共同成就和共同承担责任的过程中形成的。

当机器激发出关怀意识时,它们就能强调——而不是削弱——人类的特质。

更好的人工智能是可能的

在人工智能可能被用来取代工人的行业中,技术专家可能会考虑如何通过巧妙的人机合作来增强人类的能力,而不是削弱人类的能力。

剧本创作团队可能会喜欢能即时查找对话或交叉引用的人工代理。艺术家们可以编写或设计自己的算法,以激发创造力,并保留作品的声誉。为软件团队提供支持的机器人可以改善会议沟通效果,发现编译代码时出现的错误。

当然,拒绝替代并不能消除人工智能的所有伦理问题。但是,当替代不再是目标时,许多与人类生计、代理和偏见相关的问题就会发生转变。

替代幻想只是人工智能和社会众多可能实现的未来的一种。毕竟,如果“机器人”取代了所有主角,就没人会看《星球大战》了。要想对人类与人工智能的未来有一个更合乎伦理道德的愿景,你可以看看那些已在太空和地球上幸存下来并表现良好的人机团队。(财富中文网)

珍妮特·维特西(Janet Vertesi)是普林斯顿大学社会学副教授。

本文依据知识共享许可协议转载自The Conversation。

译者:中慧言-王芳

自ChatGPT于2022年年底发布以来,许多新闻媒体都报道了人工智能带来的伦理威胁。科技专家警告说,机器人杀手决心要灭绝人类,而世界经济论坛则预测,机器将抢走人类的工作。

科技行业在投资人工智能提高生产力工具的同时,也在大幅裁员。好莱坞的编剧和演员正在罢工,以保护他们的工作和肖像权。学者们不断揭示这些系统是如何加剧现有的偏见或创造毫无意义的工作——以及无数其他问题。

有一种更好的方式将人工智能引入工作场所。作为一名与美国国家航空航天局机器人航天器团队合作的社会学家,我知道这一方法,因为我亲眼目睹过。

我研究的科学家和工程师们正忙着借助配备人工智能的火星车探索火星表面。但他们的工作并非科幻小说中的幻想。这是一个机器智能和人类智慧结合在一起追求共同目标的例子。

这些机器人不是取代人类,而是协助我们拓展和完善人类的特质。在此过程中,他们避免了常见的道德陷阱,并为与人工智能合作指明了人道主义路线。

人工智能的替代神话

机器人杀手和失业的故事说明了“替代神话”是如何主导人们对人工智能的看法的。从这个角度来看,人类可以而且将会被机器自动化所取代。

在带来生存威胁的同时,人工智能还会带来商业福利,如更高的效率、更高的利润率和更多的休闲时间。

经验证据表明,自动化并不能降低成本。相反,它通过淘汰地位低下的工人,增加了留下来的地位较高的工人的工资成本,从而加剧了不平等。与此同时,当今的生产力工具激励员工为雇主多干活,而不是少干活。

直接替代的替代方案是“混合自主”系统,即人和机器人协同工作。例如,自动驾驶汽车必须经过编程,才能实现在实际路况中与人类驾驶员共同驾驶汽车。之所以说自主是“混合的”,是因为人类和机器人在同一个系统中进行相关操作,他们的行为会相互影响。

然而,混合自主往往被视为迈向替代的一大步骤。它可能会导致系统中的人类仅仅是训练、管理或教授人工智能工具。这让人类背上了“幽灵工作”的包袱——程序员们希望机器学习很快就能淘汰那些无需动脑且零碎的任务。

替代引发了人工智能伦理方面的危险信号。诸如标记内容以训练人工智能或清理脸书(Facebook)帖子之类的工作通常涉及创伤性任务,而且是由南半球的低薪劳动力完成的。大批自动驾驶汽车的设计者痴迷于“电车难题”——决定何时或是否碾压行人是合乎道德的(一辆有轨电车驶来,前方的轨道上有5个人,片刻之后这5个人就会被电车碾压致死;此时你手边有一个拉杆,拉动之后电车会变道,这5个人可以幸免于难,但变道后的轨道上也有1个人,这个人将被电车碾压致死。考虑以上情形,你是否应该拉动拉杆)。

但我对美国国家航空航天局机器人航天器团队的研究表明,当公司拒绝“替代神话”,转而选择组建人机团队时,人工智能的许多伦理问题就会消失。

拓展而非替代

强大的人机团队在拓展和增强人类能力而不是取而代之时表现更好。工程师们制造出的机器可以完成人类无法完成的工作。然后,他们将机器和人力巧妙地结合在一起,可以朝着共同的目标迈进。

通常情况下,这种团队合作意味着让机器人去做对人类身体有危险的工作。扫雷、搜救、太空行走和深海机器人都是现实世界中的例子。

团队合作还意味着充分利用机器人和人类感官或智能的综合优势。毕竟,机器人拥有许多人类不具备的能力,反之亦然。

例如,人类在火星上只能看到一直延伸到地平线光线昏暗、尘土飞扬的红色地形。因此,工程师在火星车上配备了相机滤镜,以“看到”人类在红外线中看不到的光的波长,从而传回色彩艳丽的伪彩色照片。

与此同时,火星车上的车载人工智能无法得出科学发现。只有将色彩斑斓的传感器结果与专家讨论相结合,科学家才能利用这些机器人的眼睛揭开火星的新真相。

尊重数据

人工智能面临的另一项伦理挑战是如何收集和使用数据。生成式人工智能在未经艺术家和作家同意的情况下使用他们的作品进行训练,商业数据集充斥着偏见,而ChatGPT在回答问题时会产生“幻觉”。

人工智能训练时使用这些数据在现实世界中造成的后果包括诉讼和种族定性。

火星上的机器人也依靠数据、处理能力和机器学习技术来完成工作。但它们需要的数据是视觉和距离信息,以生成可驾驶路径或推荐绝妙的新图像。

通过关注它们周围的世界而不是我们的社会世界,这些机器人系统避免了困扰当今人工智能的监视、偏见和剥削等问题。

关怀伦理

机器人与人类的情感完美融合后,它们可以通过激发人类的情感来团结与之共事的群体。例如,经验丰富的士兵在战场上悼念损坏的无人机,家人会为他们的扫地机器人(Roombas)起名并赋予其个性。

当勇气号和机遇号探测器受到火星沙尘暴的威胁时,我看到美国国家航空航天局的工程师们焦虑不安,流下了眼泪。

与拟人化(将人类特征投射到机器上)不同,这种感觉源于对机器的关怀。它是在日常互动、共同成就和共同承担责任的过程中形成的。

当机器激发出关怀意识时,它们就能强调——而不是削弱——人类的特质。

更好的人工智能是可能的

在人工智能可能被用来取代工人的行业中,技术专家可能会考虑如何通过巧妙的人机合作来增强人类的能力,而不是削弱人类的能力。

剧本创作团队可能会喜欢能即时查找对话或交叉引用的人工代理。艺术家们可以编写或设计自己的算法,以激发创造力,并保留作品的声誉。为软件团队提供支持的机器人可以改善会议沟通效果,发现编译代码时出现的错误。

当然,拒绝替代并不能消除人工智能的所有伦理问题。但是,当替代不再是目标时,许多与人类生计、代理和偏见相关的问题就会发生转变。

替代幻想只是人工智能和社会众多可能实现的未来的一种。毕竟,如果“机器人”取代了所有主角,就没人会看《星球大战》了。要想对人类与人工智能的未来有一个更合乎伦理道德的愿景,你可以看看那些已在太空和地球上幸存下来并表现良好的人机团队。(财富中文网)

珍妮特·维特西(Janet Vertesi)是普林斯顿大学社会学副教授。

本文依据知识共享许可协议转载自The Conversation。

译者:中慧言-王芳

Since ChatGPT’s release in late 2022, many news outlets have reported on the ethical threats posed by artificial intelligence. Tech pundits have issued warnings of killer robots bent on human extinction, while the World Economic Forum predicted that machines will take away jobs.

The tech sector is slashing its workforce even as it invests in AI-enhanced productivity tools. Writers and actors in Hollywood are on strike to protect their jobs and their likenesses. And scholars continue to show how these systems heighten existing biases or create meaningless jobs – amid myriad other problems.

There is a better way to bring artificial intelligence into workplaces. I know, because I’ve seen it, as a sociologist who works with NASA’s robotic spacecraft teams.

The scientists and engineers I study are busy exploring the surface of Mars with the help of AI-equipped rovers. But their job is no science fiction fantasy. It’s an example of the power of weaving machine and human intelligence together, in service of a common goal.

Instead of replacing humans, these robots partner with us to extend and complement human qualities. Along the way, they avoid common ethical pitfalls and chart a humane path for working with AI.

The replacement myth in AI

Stories of killer robots and job losses illustrate how a “replacement myth” dominates the way people think about AI. In this view, humans can and will be replaced by automated machines.

Amid the existential threat is the promise of business boons like greater efficiency, improved profit margins and more leisure time.

Empirical evidence shows that automation does not cut costs. Instead, it increases inequality by cutting out low-status workers and increasing the salary cost for high-status workers who remain. Meanwhile, today’s productivity tools inspire employees to work more for their employers, not less.

Alternatives to straight-out replacement are “mixed autonomy” systems, where people and robots work together. For example, self-driving cars must be programmed to operate in traffic alongside human drivers. Autonomy is “mixed” because both humans and robots operate in the same system, and their actions influence each other.

However, mixed autonomy is often seen as a step along the way to replacement. And it can lead to systems where humans merely feed, curate or teach AI tools. This saddles humans with “ghost work” – mindless, piecemeal tasks that programmers hope machine learning will soon render obsolete.

Replacement raises red flags for AI ethics. Work like tagging content to train AI or scrubbing Facebook posts typically features traumatic tasks and a poorly paid workforce spread across the Global South. And legions of autonomous vehicle designers are obsessed with “the trolley problem” – determining when or whether it is ethical to run over pedestrians.

But my research with robotic spacecraft teams at NASA shows that when companies reject the replacement myth and opt for building human-robot teams instead, many of the ethical issues with AI vanish.

Extending rather than replacing

Strong human-robot teams work best when they extend and augment human capabilities instead of replacing them. Engineers craft machines that can do work that humans cannot. Then, they weave machine and human labor together intelligently, working toward a shared goal.

Often, this teamwork means sending robots to do jobs that are physically dangerous for humans. Minesweeping, search-and-rescue, spacewalks and deep-sea robots are all real-world examples.

Teamwork also means leveraging the combined strengths of both robotic and human senses or intelligences. After all, there are many capabilities that robots have that humans do not – and vice versa.

For instance, human eyes on Mars can only see dimly lit, dusty red terrain stretching to the horizon. So engineers outfit Mars rovers with camera filters to “see” wavelengths of light that humans can’t see in the infrared, returning pictures in brilliant false colors.

Meanwhile, the rovers’ onboard AI cannot generate scientific findings. It is only by combining colorful sensor results with expert discussion that scientists can use these robotic eyes to uncover new truths about Mars.

Respectful data

Another ethical challenge to AI is how data is harvested and used. Generative AI is trained on artists’ and writers’ work without their consent, commercial datasets are rife with bias, and ChatGPT “hallucinates” answers to questions.

The real-world consequences of this data use in AI range from lawsuits to racial profiling.

Robots on Mars also rely on data, processing power and machine learning techniques to do their jobs. But the data they need is visual and distance information to generate driveable pathways or suggest cool new images.

By focusing on the world around them instead of our social worlds, these robotic systems avoid the questions around surveillance, bias and exploitation that plague today’s AI.

The ethics of care

Robots can unite the groups that work with them by eliciting human emotions when integrated seamlessly. For example, seasoned soldiers mourn broken drones on the battlefield, and families give names and personalities to their Roombas.

I saw NASA engineers break down in anxious tears when the rovers Spirit and Opportunity were threatened by Martian dust storms.

Unlike anthropomorphism – projecting human characteristics onto a machine – this feeling is born from a sense of care for the machine. It is developed through daily interactions, mutual accomplishments and shared responsibility.

When machines inspire a sense of care, they can underline – not undermine – the qualities that make people human.

A better AI is possible

In industries where AI could be used to replace workers, technology experts might consider how clever human-machine partnerships could enhance human capabilities instead of detracting from them.

Script-writing teams may appreciate an artificial agent that can look up dialog or cross-reference on the fly. Artists could write or curate their own algorithms to fuel creativity and retain credit for their work. Bots to support software teams might improve meeting communication and find errors that emerge from compiling code.

Of course, rejecting replacement does not eliminate all ethical concerns with AI. But many problems associated with human livelihood, agency and bias shift when replacement is no longer the goal.

The replacement fantasy is just one of many possible futures for AI and society. After all, no one would watch “Star Wars” if the ‘droids replaced all the protagonists. For a more ethical vision of humans’ future with AI, you can look to the human-machine teams that are already alive and well, in space and on Earth.

Janet Vertesi is Associate Professor of Sociology, Princeton University.

This article is republished from The Conversation under a Creative Commons license. Read the original article.

热读文章
热门视频
扫描二维码下载财富APP