首页 500强 活动 榜单 商业 科技 商潮 专题 品牌中心
杂志订阅

黄仁勋:无人能复制英伟达

Jeremy Kahn
2026-05-05

如何定义和衡量这种“智能”,业界仍在激烈争论。

文本设置
小号
默认
大号
Plus(0条)

图片来源:Kent Nishimura—Bloomberg—Getty Images

近日,英伟达首席执行官黄仁勋在接受播客主持人莱克斯·弗里德曼访谈时表示,通用人工智能(AGI)已经实现。此番言论迅速引发了科技界的讨论。

长期以来,AGI一直是众多人工智能研究者追寻的终极目标。尽管业界至今未就其定义达成共识,却不妨碍其成为行业愿景。它通常指具备与人类相当智能水平的人工智能,但如何定义和衡量这种“智能”,业界仍在激烈争论。

访谈中,弗里德曼向黄仁勋提出了一个不寻常的AGI衡量标准:人工智能能否创办一家科技企业,并将其发展成估值达10亿美元的行业巨头?当被问及这种定义下的AGI能否在未来5到20年内实现时,黄仁勋认为,无需等待那么久——他认为这一目标已经达成。

“我认为就是现在。我觉得我们已经实现了AGI。”随后,他话锋一转,指出企业并不需要一直保持如此高的估值。“你说的是估值达到10亿美元,但没说要永远保持下去。”

鲜有人工智能研究者认同弗里德曼提出的这套定义,因为他提出的量化指标极为具体,如打造估值达10亿美元的企业,这比绝大多数AGI定义的范畴更窄,创办一家成功的企业,未必需要用到全部的认知能力。至于何为更公允的AGI定义,人工智能研究者们各执一词。

尽管多家市值超万亿美元的科技巨头均宣称竞相追逐AGI,但由于AGI无法被清晰界定和量化,一些计算机科学家索性避免使用这一术语。还有些人称,科技巨头热衷于使用这个术语,纯粹出于功利目的:正因为定义模糊,公司才能轻易宣称在该领域取得了重大突破,借此炒作。

黄仁勋关于AGI的言论引发的争论,恰恰凸显了人工智能热潮背后的核心问题。

尝试建立科学的AGI衡量标准

为了让AGI的评估告别“信口开河”,业界正试图建立严谨的衡量指标。在弗里德曼这期播客节目发布前几天,谷歌DeepMind的研究人员发表了一篇新研究论文,提出了更科学的方法来定义AGI,以及评估人工智能模型是否真正实现通用智能。

这篇题为《衡量AGI发展进程:认知框架》的论文借鉴了心理学、神经科学和认知科学领域数十年的研究成果,构建了一套“认知分类体系”,明确划分了对通用智能至关重要的十项核心认知能力,包括感知、推理、记忆、学习、注意力以及社会认知等。该框架提出,需围绕上述十项能力对人工智能系统开展全面评估,并将其表现与至少具备中等教育水平的成年人代表性样本进行比较。

DeepMind的研究揭示了一个关键现状:当前人工智能模型的认知图谱是“参差不齐”的。它们在数学或事实检索等领域可能超越大多数人,但从经验中学习、维持长期记忆或理解社交情境等方面远不及普通人。研究人员提出,一款人工智能模型若宣称实现AGI,需在所有10个维度上至少达到人类的中位数水平。

近期,业界已有多项研究尝试为衡量AGI设立更严谨的标准,DeepMind的这篇论文只是其中的最新成果。

去年,由人工智能安全中心的丹·亨德里克斯牵头、深度学习先驱约书亚·本吉奥加盟的团队,曾发布AGI框架与评估指标,并为现有模型打分。根据该团队的标准,测试中表现最突出的模型是OpenAI于2025年8月发布的GPT-5,得分仅为57%,在所有认知维度上仍远逊于受过良好教育的成年人。

在诸多凸显当前人工智能系统能力短板的实践中,知名机器学习学者弗朗索瓦·肖莱打造的ARC-AGI基准测试,堪称最具雄心的尝试。他认为,不应依托系统已习得的知识衡量智能,而要看其掌握新技能的效率。在这套涉及视觉谜题和实时环境探索的测试中,当下最前沿的人工智能模型依然步履维艰,原因在于抽象推理能力正是当前人工智能系统的短板。这些能力对人类而言与生俱来,却依然是当前人工智能研究的前沿领域。

人工智能研究界正付出越来越多的努力,力求以更接近科学的量化标准,取代AGI的模糊定义。然而,正如研究人员所承认的,如何界定智能,是与人类思维研究同样古老的难题。自人工智能诞生之初,这一难题便困扰着研究人员。

定义智能

关于如何定义“智能”的困惑,几乎与计算机科学的历史一样长。

1950年,“人工智能”这一术语尚未出现,数学家与电气工程师们才刚刚开始打造首批现代计算机,英国著名数学家、计算机科学先驱艾伦·图灵就为如何定义“智能”而苦苦思索。

图灵避开了复杂的定义,而是提出了一套名为“模仿游戏”的评估方法,即后世熟知的图灵测试,本质上是一种“见之即明”的直觉判断法。判定标准为:如果一台机器能以文本形式与人类展开日常对话,而另一位人类评审在阅读对话记录后,无法准确区分对话双方中哪一方是机器、哪一方是人类,便可判定这台机器具备智能。

但图灵测试很快暴露出局限性。20世纪60年代中期,麻省理工学院研发出了一款名为Eliza的聊天机器人,其设计初衷是模仿心理治疗师。Eliza的绝大多数回复都遵循硬编码的逻辑规则,常以“你为什么会这么想?”或“告诉我更多详情”这类话术回应,掩盖了自身薄弱的语言理解能力,却让一些用户误以为它能理解人类。尽管在其他衡量维度上,Eliza的能力都与人类认知水平相去甚远,但它差点就通过了图灵测试。2014年,一款更复杂的聊天机器人“尤金·古斯特曼”通过了现场图灵测试,但它同样不具备人类的绝大多数认知能力。

如今,大型语言模型在对话流畅度上远超Eliza,却依然无法在全维度认知能力上比肩人类——它们会编造事实,难以进行长远规划,更无法像人类那样从经验中学习。

与图灵测试相比,“通用人工智能”这一术语问世要晚得多。1997年,当时还是马里兰大学研究生的马克·古布鲁德首次在论文中使用了这个新词。他用“高级通用人工智能”来描述具备以下特征的人工智能系统:“在复杂度和运算速度上匹敌或超越人类大脑,能够获取、处理并运用通用知识进行推理,且几乎能在所有原本需要人类智能的操作阶段应用。”但这篇论文很快便石沉大海,无人问津。

到了21世纪初,后来成为DeepMind联合创始人的谢恩·莱格,独立提出了这一概念。当时,他正与计算机科学家本·戈茨尔、卡西奥·彭纳钦等人合作撰写一本书,探讨如何构建能够解决各类问题和任务的机器学习系统。他们需要一个术语,将其与处理单一任务的狭义机器学习算法区分开来。在完全不知道古布鲁德曾使用过该词的情况下,莱格提议使用“通用人工智能”的表述,还建议将其缩写为AGI。由此,AGI在业界流行开来。

戈茨尔在其著作中,将AGI定义为“具备相当程度的自我认知能力与自主控制能力的人工智能系统,能够在多种场景中解决各类复杂问题,并且能够学习解决系统研发之初并未预设的新问题。”但上述定义也存在诸多模糊之处:如何界定“相当程度”?在哪些情境下解决何种复杂问题才算达到标准?

去年在接受《大西洋月刊》采访时,莱格给出了一个更通俗的AGI定义:能够完成人类常规认知任务的AI智能体。这一定义在某种程度上范畴更窄,例如,没有提及自我认知能力;但具体指哪些任务,又以哪类人群的能力为参照,依旧缺乏明确的标准。

诸如此类的问题始终围绕着AGI:究竟对标的是普通人的认知能力,还是高智商人群的能力,抑或是各领域顶尖专家的能力?举例来说,亨德里克斯与本吉奥的研究论文,将AGI定义为达到或超过“受过良好教育的成年人的通用认知能力和专业能力水平”。DeepMind的论文则提出,以成年人的代表性样本作为衡量基准。还有一些研究者的表述更为宽泛。

更令人费解的是,AGI在公共讨论中常与“超级人工智能”(ASI)混为一谈,后者指的是智力水平超越全人类的人工智能。尽管大多数研究者认为AGI和ASI是两个不同的里程碑,但在大众认知里,二者的界限往往是模糊的。

AGI成为企业目标,也成了营销口号

如果说学界的AGI定义之争,是一场旷日持久、深究细节的思辨,那么企业界给出的定义可谓别具一格。

DeepMind是首家将实现AGI列为商业目标的公司。2010年,莱格与戴密斯·哈萨比斯、穆斯塔法·苏莱曼联合创办公司时,就把AGI一词写在了首份商业计划书的首页。

五年后,OpenAI也明确将构建AGI列为公司使命。2015年成立之初,彼时还是非营利组织的OpenAI致力于确保“AGI造福全人类”。三年后,该实验室首次设立营利性部门时,发布的章程将AGI定义为“在绝大多数有经济价值的工作中,表现优于人类的高度自主系统”。至此,衡量AGI的标准首次从认知能力转向了财务指标。

事实证明,OpenAI很快就为AGI秘密设定了具体的财务门槛。2019年,微软首次向OpenAI的营利性部门投资10亿美元时,双方在协议中约定,微软将成为OpenAI所有人工智能模型(关键的是,不包括AGI)的首选商业化合作伙伴。当时有报道称,是否已实现AGI将由OpenAI的非营利董事会判定。

但据科技媒体《The Information》2024年报道,2023年微软再向OpenAI追加100亿美元投资时,合同中出现了一项关键条款:将AGI定义为能够创造至少1000亿美元利润的技术。

显然,OpenAI距离这一盈利门槛相去甚远。据报道,该公司曾向投资者透露,去年营收为130亿美元,但现金消耗仍高达80亿美元,预计要到2030年才能实现收支平衡。

但OpenAI首席执行官山姆·奥尔特曼曾多次暗示,按照其他标准衡量,OpenAI已接近实现这一人工智能里程碑。2025年1月,他在个人博客《反思》一文中写道,OpenAI“如今确信已掌握构建传统意义上AGI的方法”,并表示公司已开始将目标转向超级智能。在随后的《三点观察》中,他表示AGI系统已“初现雏形”。但在其他场合,奥尔特曼也承认了AGI这一概念存在缺陷。《反思》一文发布同期,奥尔特曼对彭博社表示,AGI“已变成一个非常模糊的术语”。

为了营销目的,微软有时也会无视与OpenAI商定的财务门槛。2023年3月,微软的研究团队发表了一篇关于GPT-4的论文,长达154页,标题颇具挑衅意味——《通用人工智能的火花》,文中称该模型“尽管仍不完善,有理由被视为AGI的早期版本”。

这篇论文因出于商业目的刻意夸大GPT-4的能力,遭到业界广泛批评,就连奥尔特曼也与这一论调划清界限,称GPT-4“依然存在短板,能力有限”。

谷歌DeepMind与亨德里克斯-本吉奥团队的最新研究和基准测试在建立AGI衡量标准方面取得了一定进展,这一标准依托于数十年来的人类智能研究成果。显而易见的是,即便是如今最顶尖的人工智能模型,在认知能力的广度与深度上,仍无法与人类比肩。

黄仁勋深知这一点,正如他清楚宣称“AGI已实现”会引发怎样的舆论狂欢。在同一期播客中,他在抛出这一论断后又补充道:那些广受欢迎的OpenClaw AI智能体(可以搭载Anthropic和OpenAI等公司的顶级模型)永远无法复制英伟达。他说:“哪怕有十万个此类智能体,也绝无可能复刻出英伟达这样的企业。”

黄仁勋执掌公司的33年间,带领英伟达走出濒临破产的困境,如今,该公司的市值已超4万亿美元,成为全球最具价值的公司之一。从诸多方面来看,黄仁勋堪称绝世天才,但他同样是一介凡人。所以或许我们需要一套全新的标准,不是AGI,而是AJI——黄氏人工智能(artificial Jensen intelligence)。当人工智能达到这一水平时,那些在社交媒体上大肆宣扬黄仁勋AGI言论的人工智能拥趸们,才真的有理由为之狂欢。

编者语:

·务实看待技术差距,拒绝营销泡沫:从早期的Eliza到如今的GPT-4,历史证明“通过测试”不等于“拥有智能”。AI企业应警惕行业内过度炒作AGI概念,正视当前大模型在长线规划和逻辑自洽上的短板,避免陷入为了迎合资本叙事陷入“人造智能”的误区。

·标准制定权的博弈:OpenAI等AI公司通过提出各自的AGI定义,争夺技术话语与商业先机。这场定义权之争背后,是标准、伦理与商业利益的复杂角力,对中国企业参与全球竞争具有启示意义。

·复杂决策中的“人本位”不可撼动: 即使黄仁勋宣称“AGI已实现”,他也承认目前的AI智能体无法复制像英伟达的创业历程。这说明在极高复杂度的战略直觉与组织领导力面前,人的价值仍是商业竞争的终极变量。

财富中文网对原文有删减和调整(财富中文网)

译者:中慧言-王芳

编辑:魏雨彤

财富中文网所刊载内容之知识产权为财富媒体知识产权有限公司及/或相关权利人专属所有或持有。未经许可,禁止进行转载、摘编、复制及建立镜像等任何使用。
0条Plus
精彩评论
评论

撰写或查看更多评论

请打开财富Plus APP

前往打开