立即打开
OpenAI大戏新剧情:700名员工联名逼宫董事会辞职

OpenAI大戏新剧情:700名员工联名逼宫董事会辞职

2023-11-21 11:00
被认为是本事件策划者的公司首席科学家伊尔亚·苏茨克维发推表示,自己非常后悔。与此同时,OpenAI的770名员工中700人签署了一封公开信,要求恢复奥特曼和格雷格的职位,并且董事会要全部辞职,否则自己就将追随奥特曼入职微软。另外有消息称,OpenAI董事会曾与其主要竞争对手、明星AI初创公司Anthropic联合创始人兼CEO Dario Amodei探讨两家公司合并事宜。 | 相关阅读(财联社)
44
March

March

我也曾想过有天我技术在面临科技发展与自然人文之间该怎样抉择,但事实是人们只会更铭记带来便利缓解燃眉之急的爱因斯坦。
可是随着时间发展科技的普及,不谈政治,大众会慢慢发现技术,验证技术,利用技术;在法律未普及的情况下为所欲为,甚至在法律的加持下形成新的灰色地带。
但是1764年哈格里夫斯发明珍妮纺纱机的时候也没有想过会引起一场工业革命,所以如果是我,我会选择把技术分享于社会,至少,ai甚至VRai这条路的前景是大好的。
曾多次被人们用我的技术破坏自然生态扰人心智而吓醒,可是创新就是对1000件事说“不”。
创新的本质是突破,即突破旧的思维定势,旧的常规戒律。
创新的核心是矛盾,科技进步与自然人文之间的矛盾存在才更会相互影响相互提升。
毕竟它前景是好的,已是社会之需要;若是还没开始就畏手畏脚,那就是原地踏步,难怪董事会会被逼宫辞职。

51
张国防

张国防

做些小投资的兼职研究员

即便硅谷的那些圈内邻居们也对OpenAI星球大战般剧情的本来不明就里,另外半球的中文圈实质上更为不得而知。
不过,大致看起来,像是秉持人类安全理念的、类似米利都学派天才德谟克利特的“自然主义”认知派,开除了坚持柏拉图和亚里士多德的“目的论”的行动派。

前者热切关注自然,对生命有相当深的道德情怀,倡导通过节制和平衡,通过信任和理性让自己不被情绪主导,有条不紊、心平气和。
后者相信任何事情发生都有其目的性,坚决排斥自然主义,比如柏拉图抱怨物理学家把地球解释为圆形,原因是他想不出圆形对地球有什么好处,多么显明的只讲用处远离客观。是的,就是他们相当于焚书抹黑的烧掉了几乎全部的德谟克利特的包括《宇宙结构学》《论原子的运动》《论磁》等五六十本著作,为西方一脉注入显明的目的论。

没有谁,包括萨姆•奥尔特曼(Sam Altman),以及OpenAI的董事会成员,能替代OpenAI创始团队中的伊利亚•苏斯克沃(Ilya Sutskever)对人工智能AI的前沿、深度、广度、丰度(多样性)的切实认知、感知、预知。
因为创始成员三人中,奥尔特曼和格雷格•布罗克曼(Greg Brockman)两人并不深谙AI热潮背后的深度学习技术,技术是苏斯克沃的专长。
苏斯克沃是一位慎重的加拿大计算机科学家,也是开创深度学习时代的论文的合著者,他比冲动的奥尔特曼更加深思熟虑,更倾向于详细讨论AI技术的潜在危险,试图研究如何控制未来的超人类AI系统,认为这类系统可能“非常危险,可能导致人类被剥夺力量,甚至人类灭绝”。

相较而言奥尔特曼Altman是个典型硅谷创业场中不安分、雄心勃勃的科技高管,执掌YC等历经让他体会到前景光明的初创科技企业如何近乎一夜间变成世界领先的公司,而且执著向前停不下来。
看起来无可厚非的、典型的硅谷科技创新者们,执迷于技术有效加速主义、技术乐观主义,相信技术的浪漫,没有任何实质问题不能用更多的技术来解决!技术,尤其是人工智能的发展不仅应该被允许不受限制地继续,而且应该不断加速。
当速度、加速度(一阶导数)、加速度的加速度(二阶导数)追不上他们的畅想时,他们付诸于行动,全球范围内寻找和联合有相同认知的人们、要素,汇集。比如,从中东主权财富基金筹集巨额资金创建人工智能芯片初创公司,与前苹果首席设计师合作开发以人工智能为中心的硬件设备,并为此向软银董事长孙正义寻求数十亿美元的投资。

如今的剧情,是飞速发展的人工智能领域及其其中的OpenAI公司核心团队成员非常不同的个性的延伸、交织、交错,即便是他们的个性,也都有各自的认知边界。
以及,一时顾及不到所谓的公司估值、投资人权益、员工影响等。

他们在人工智能奇点转换节点上巨大应力旋涡中,身不由己。

这是科技界本身。
政治、社会、文化、安全、生态界,同样在湾区旧金山,中美掌舵人费罗丽庄园中战略性、全局性、方向性、全球性等系统而全面的会晤中,兼职研究员方程轻骑兵的关注点落在了排在达成共识话题前列的“人工智能领域的对话合作”,这一议题甚至排在了气候合作、军事沟通互动之前,是相互竞争与合作之上管控风险、共同面新事物的范畴。

有别于习以为常的词汇军事沟通、气候变化,人工智能AI这事几乎突然的出现在严肃的议题中,并且站在队列的前面。

最近的新闻是中国工行美国纽约的子公司工银金融被勒索软件攻击;身边发生的是大型医院的大型设备被锁定索要数千万元;之前发生的包括美国电网被攻击等比比皆是。
由此一斑,可以窥见这样的未来场景:网络攻击使公共服务陷入停顿,勒索软件让公司股价蒸发数百万美元,深伪技术欺骗了消费者,机器人干预了选举,企业和学术机构的知识产权被窃取......
以及的,目前为止,上述这些还都是小巫,相对小规模的冲突,由敌对国家和非国家行为体之间的邪恶联盟造成。这还是看得见的,包括仿佛看不见的网军战场暗潮汹涌,其实也是显而易见。
企业面临的人工智能和其他数字技术进步带来的挑战,可能会使迄今为止目睹的网络攻击、勒索软件、机器人和深伪技术看起来像是“相对较小的冲突”。基于此,绝不应将经济安全视为增长的制约因素。
看不见的,或者不易觉察的,比如被称为“人性下坠力量”的“现代数据鸦片奶头乐”,以及智能算法驱动的社交媒体已确定对儿童和青少年的心理健康造成极其糟糕的影响 -- 并非多数人参与玩家就是对!
AI领域的一个著名实验:AI认为减少二氧化碳排放的最佳方案是消灭人类。
AI“传教士”共同抱有的“超级智能为低等(人类)智能效力”的愿景……莫衷一是,五花八门。

各国都在探究和行动,最近英国发起的讨论较为集中,相对于热冷战、气候、资源,债务周期引发的金融危机、经济危机等,碳基人们跨过奇点迎来硅基智能时代共生并存的同时,英国首相严肃的说世界下一次冲击将是科技冲击。11月初英国率先在伦敦布莱切利公园举行了人工智能安全峰会,邀请包括中美在内的国家因人工智能问题坐到一起,共同签署了通过国际合作来解决人工智能风险的《布莱奇利宣言》。该宣言关注的焦点在于包含了OpenAI的ChatGPT的前沿人工智能 -- 最先进的基础模型和生成式人工智能。
其议程聚焦各项“前沿人工智能”风险:尖端技术被滥用的风险,特别是生物安全、计算机网络安全、线上安全以及人工智能对人类社会生存构成的威胁。
出人意料的是,这次会议上,中C表示认同各国应该在“民主”和“自由”的共同价值观下团结在一起,打击恶意的AI使用。
这还是在之前美A拜登同学振臂高呼倡导推动先进技术以促进所谓民主议程。这波人工智能源起美A领头羊;中C比肩,英、法、德、日、韩、印等跟随,然后,然后后面其实没有太多国家或地区有足够财力、能力参与,尤其南方国家群体。

除了风险,还有现象级的衍生在于:“多达49%的劳动者可能有至少一半的工作量暴露于大型语言模型面前”:数学家、网页设计师、会计师和记者。事实上,在全球逾30亿劳动者中,几乎没有一种职业不会受到影响,变化到来之快,将会超出许多政府或企业的准备。
工作岗位的迅速大规模消失,鲜明的安全和社会风险!“人类总能找到新的事情去做”的说法,很难算是一种政策。虽然有大规模技能提升和再培训计划,为人们提供转行成为数据工程师、软件开发员、数据科学家并对人工智能加以利用的机会,但实际上,对于具体的一代人而言,工作被取代显而易见,但不知道它将创造哪些工作。
虽然比尔盖茨说过不了多久,每个人身边都会有自己的人工智能助手,就像当年他说每个人的书桌或办公桌上都将会有一台PC一样,他们创造了数以十亿的新型工作,融入到了人类社群生活中。

上述风险和问题中之一“加密货币的道德破产”,很难让人接受这种观点:技术全是正面的,应该任其永无休止地加速。
全球范围内,任何在人工智能发展上有所作为和想有所作为的选手都不会放弃在人工智能监管上的话语权和参与度。无论是价值观还是方法论,各国和各地区的人工智能治理路线各异,但可以达成的共识是,人类共同面临人工智能带来的挑战,没有谁可以独自应对自如。这个事情方面,单一政治经济体难以应对,“小院高墙”的结果,基本肯定会变成“井底之蛙”,井底之下搞装修,空悲砌。

技术层面,是开源还是封闭,目前阶段,各有其逻辑。开源则透明、共享,但容易被恶意利用;封闭看似可以被控制,但掌控封闭的人或团队是最大的逻辑概率风险。
封闭的话,许多国家,尤其是‘全球南方’国家,发现自己无法参与世界数字经济。

AI是下一件大事,没有人会逆来顺受,让别人来决定一切,中国不会让这种事发生,美国当然也不会。和合作博弈,还是非合作博弈进入囚徒困境?
人工智能发展和风险,亦是2024年联合国未来峰会的核心议题之一。

当下几乎每天都有关于如何监管人工智能的新提议:研究机构、安全部门、模仿国际原子能机构(IAEA)打造“人工智能领域的IAEA”……反映出人们迫切希望做些什么,即使对于应该“做些什么”并没有达成共识,从就业和歧视到国家安全和民主。鉴于当期年龄段的政治领导人对人工智能知之甚少,有些环节颇待商榷。
这并非对政府人员的刻意质疑,新技术发展之快,掌握的人数之少,使得传统意义的技术专家也对大型语言模型(LLMs)的行为模式抱有严重疑问:模型的行为往往难以预测,没有多少人以可靠的技术来指导它们。

技术的道德破产,或者走在道德破产的路上的技术,确实不能想当然的认为不用去约束,不作恶,尤其是不去不自觉的作恶,何其难!
这样一个错综复杂的问题面前,单纯地拥有更多显然并不是解决之道,或许只有一些无法“度量”的东西才真正有所帮助。

由此而论,虽然无法与OpenAI的伊利亚•苏斯克沃(Ilya Sutskever)感同身受,但显而易见,他的担心,不无道理。可以做,但要有节制和平衡。

对,正是被目的论的柏拉图蔑视的米利都学派天才代表的德谟克利特所倡导的“节制和平衡”。

有了目的,就有了善恶,也就是了边界,边界内外的挣扎,就成了损人不利己各类悲伤的源泉,自己给自己戴上了紧箍咒。

那么,能不能相信和理性,节奏和控制呢?
正是2000多年前的新月沃地上的米利都Μίλητος学派认为一切表面现象的千变万化之中有一种始终不变的东西,也正是学派的那位从米利都渡船到了阿夫季拉的留基伯 Λεύκιππος和他的天才学生德谟克利特Δημόκριτος确信各种各样的自然现象一定可以归因为某种简单的东西,并且尝试弄清楚这种东西可能是什么。他们设想了一种基本物质,万物都有他构成,包括海洋、树木、星辰、面条、大米、烤地瓜,以及情绪、 梦境。

于是乎,原子,原子的概念,诞生了!古代原子论,产生啦!
他们真的找到了一种基础元素:原子,当下知识认知体系中,理所当然的务无比确凿!

万事万物的存在是原子随机结合的偶然 -- 一个放在超大时间区间中理解的随机的偶然。希望和情绪也是,类比一下,就像字母以不同的排列组合,可以得到喜剧、悲剧、荒诞剧或史诗。
如此简洁,却也如此广博,造就了这一“文明知识体系的周期”的伊始。

跳出目的论,跳出自己设定的边界,也就自然跳出自身亦预想不到的存在的方式方法、解决方案、结构逻辑等;
回归,尝试回归自然主义,以节制和平衡,以信任和理性。

面对和用好人工智能的难度,即便是与“用原子解释世界”的难度相当,那也是有方法可探究的。当下硅谷发生的星球大战般的剧情,是回到基本原理,以及一定能够回到基本原理的过程历经。

所以的,面对人工智能,兼职研究员方程轻骑兵的建议是:回到基本原理,以及一定能够回到基本原理。

===

50
我与春风皆过客

我与春风皆过客

OpenAI这场高层人事地震似乎这周并没有要完毕得迹象。昨天微软刚刚邀请奥特曼去微软领导其AI研究团队,今天OpenAI的770名员工中700人签署了一封公开信,要求恢复奥特曼和格雷格的职位,而且之前扮演了反对奥特曼一派的伊尔亚也开始“反水”,现在奥特曼和伊尔亚站在了一起,和其他员工们一起,开始向董事会逼宫。就算是这么跌宕起伏,但是将OpenAI最近这场变动视为简单的宫斗,也还是太简单化了。OpenAI这场人事地震最根本的原因,还是AI高速发展和背后担忧AI的安全和伦理一派的斗争,这样的斗争可能之后会常常伴随AI的进步而不断爆发。

24
兆古德雪

兆古德雪

管理导师

创业公司迅速成长,并且转变成为稳健发展的大公司,在这个过程当中,稳定的创业合作伙伴团队,对于企业的持续发展至关重要。我们可以从很多公司看到这样的经典故事。
例如,本田汽车公司的本田宗一郎和他的创业伙伴,苹果公司的乔布斯和他的创业伙伴,比尔盖茨和他的创业伙伴,巴菲特和他的创业伙伴……这个名单可以一直开的下去。
最典型的例子,是把通用汽车公司发展成全球第一大汽车公司的企业家斯隆。在斯隆成为通用汽车公司的CEO之前,这家公司是一个四分五裂的公司,而他就任之后的一个重大管理成就,是把这些四分五裂的创业伙伴紧紧的团结成一个无比强大的创业团队。这个团队中的创业伙伴们,平等相处,相互尊重,畅所欲言,又能够团结起来齐心协力把公司做强做大。
所以对于创业者来说,能够有很好的创业伙伴,能够一起把一家公司从零开始创办成功,并且推出被市场认可的非常优异的新产品和新服务,这本身就是一个非常“幸运”的事。
这固然有努力的原因,但同时也有幸运的因素在发挥作用。一个企业家想让自己的企业成为可持续发展的优秀的国际性企业,那么就必须去珍惜合作伙伴,不应当意气用事,不能轻易放弃与合作伙伴之间的优势互补的合作关系,更不能采取一种把合作伙伴赶出公司的这样一种极端的方式。伤害创业伙伴,破坏合作关系,这对自己的事业是一个重大不利的做法。
就像我们中国人常说的,要珍惜“缘分”。创业本身就是一个不容易的选择,因为我们创业会遇到很多的反对意见,很多不确定性,更不要说面临各种激烈的竞争,所以当我们有一个很好的合作伙伴能够彼此优势互补,然后创造出市场认可的好产品好服务,并且把这些产品能够很好的销售出去,那么,这种阶段性的成功,不但不应当成为合作伙伴的“分开”的原因,而且应该成为继续更紧密合作的理由。
如果某个伙伴因为个人选择,退出创业团队,这种情况下,当然可以尊重创业伙伴的选择。当然,也不会因为某个伙伴离开这家公司,这家公司就一定不行了,就发展不下去了,也不是这样。因为当某个创业伙伴自愿离开创业团队,其他人留下来继续想要把公司做强做大,那么他们会找到新的合作伙伴,继续前进。
我这里要着重表达的,是在创业合作的过程当中,合作伙伴不应当人为的去故意损害合作伙伴的利益,或者把合作伙伴从创业团队中排挤赶走。这种意气用事的做法,是完全错误的。
当创业伙伴之间遇到矛盾的时候,正确的也可以说是唯一有效的做法,是采取耐心的平等协商的做法。这一点上有很多经典的案例。例如,洛克菲勒在100多年前创办标准石油公司的时候,当他不断增加合作伙伴的过程中,他始终坚持平等协商的态度,并且他认为这是他能够把企业不断壮大,不断吸收更多非常优秀的创业伙伴的一个根本原因。这就是始终坚持平等的协商。当他意识到他不能够说服对方,或者不能够让对方按照他的想法去做的时候,他宁肯推迟做出决策,然后再通过反复耐心的沟通,争取对方达成共识,形成共同决策。在没有获得对方同意情况下,他不会贸然做出企业的决策,他因此建立了强大的企业团队。
关于创业团队伙伴之间团结的重要性,以及平等协商的基本沟通协调方法,应当引起所有创业团队成员的高度重视,尤其要引起大股东及董事会成员的高度重视,以此实现持久合作。
(兆古德雪)

25
Hedouwudao

Hedouwudao

有效利他主义(effective altruism)的董事会宁愿承受公司内爆、为世界打造安全AI的长期目标随之终结的风险,是值得尊重的捍卫者。

没有核心技术,无以谈起AI时代的开启;没有了硅谷的商业和金融,AI也将回到大学的研究中心。

这很美国,也很硅谷,跌宕剧烈的剧情,方是新时代开启的正途;
当年的微软、Apple、Facebook,无不如此。
正如一个逻辑,不置身其中针针见血,尤其只有、唯有走到山穷水尽,方始有适合的开创路径出现。

剧情跌宕到山穷水尽,方是与事情的本来各种针针见血的触碰中,均衡出新的业态、理论和时代。

4
Edward 皮晓峰

Edward 皮晓峰

有没有问问OpenAI,这个事本身该怎么解决?

24
杜傲 Dawn

杜傲 Dawn

想躺平的互联网产品经理卷王

这场闹剧到现在也没有像马斯克说的,有一个明确的理由和实际情况的阐述,感觉一直在不断反转;说不定到头来最终赢家成了微软,一路把OpenAI的核心成员都捡回自己公司,且还没有任何道德和商业上的问题与风险,而且还都是一个价值观派系的人,说不定后续会发展更快,微软在背后偷笑。
说不定这将是未来人类回到过去,在现在狙击AI发展的关键一步,也可能是导致AI提前黑化的毁灭人类重要转折,OpenAI这些董事会的对AI的发展价值观都不一致,让我们来看看接下来会发生什么

撰写或查看更多观点, 请打开财富Plus APP
最新:
热读文章
热门视频
扫描二维码下载财富APP