OpenAI解散AGI团队,人工智能风云再起?

发布时间:2024年11月04日 来源:财经下午茶 作者:磐石2024 浏览量:4,656次

AGI全称为Artificial General Intelligence,即所谓的“通用人工智能”,它具备自主的感知、认知、决策、学习、执行和社会协作等能力,且符合人类情感、伦理与道德观念。

前不久,2024年诺贝尔物理学奖授予了美国科学家约翰·霍普菲尔德和加拿大科学家杰弗里·辛顿,表彰他们“通过人工神经网络实现机器学习的基础性发现和发明”。无独有偶,2024年诺贝尔化学奖的共同获奖者丹米斯·哈萨比斯和约翰·乔普开发了一种人工智能模型解决了一个50年前的问题:预测蛋白质的复杂结构。可见,通用人工智能在辅助科研方面已经大行其道!

这还远远不是终点:全球AI领域的重要人物、OpenAI前研究副总裁达里奥·阿莫迪,曾在公开发表的文章中预言“当AGI到来,它的纯粹智力方面甚至能超越诺贝尔奖得主,将科学新发现的速度提高10倍”。

面对时代风潮,OpenAI正在做出变革。就在10月31日,OpenAI正式推出了 ChatGPT 搜索功能,其原型正是数月前推出的SearchGPT。标志着其正式向谷歌的搜索引擎霸主地位发起挑战。

巧合的是,谷歌也在同日宣布,为其 Gemini AI 平台推出“基于谷歌搜索引擎的实时搜索功能”。而据外媒,OpenAI团队在互动中表示,年底将会有重大更新。

但是在AGI方兴未艾,OpenAI雄心勃勃的同时,自家却后院起火——重要团队解散了!

核心负责人离职,树倒猢狲散?

据外媒此前报道,OpenAI将解散其“AGI准备就绪”团队,据该团队负责人称,该团队负责就OpenAI自身处理日益强大的人工智能的能力,以及全世界管理该技术的准备情况向公司提供建议。

为什么突然解散了?原来是核心负责人离职了!

上周三,AGI Readiness高级顾问迈尔斯·布伦戴奇(Miles Brundage)发文宣布离职。他写道,他离职的主要原因是机会成本太高,他认为自己的研究对外界更有影响力,他想减少偏见,而且他已经完成了在OpenAI的目标。

这位仁兄是OpenAI一位资深研究者和管理者,于2018年加入OpenAI,离职前担任·AGI Readiness团队的高级顾问,之前还曾领导过PolicyResearch团队。更早之前,他曾在牛津大学人类未来研究所从事研究工作。

在解释自己离职的原因时,布伦戴奇提到,在OpenAI,他的研究和出版自由受到越来越多的限制。他强调,在人工智能政策讨论中需要有独立的声音,不受行业偏见和利益冲突的影响。在为OpenAI的领导层提供内部准备方面的建议后,他认为自己现在可以从组织外部对全球人工智能治理产生更大的影响。

Brundage还写道,至于OpenAI和世界在AGI准备方面的表现,“无论是OpenAI还是其他前沿实验室都没有准备好,世界也没有准备好”。

他计划创办自己的非营利组织,或加入现有的非营利组织,专注于人工智能政策研究和宣传。他还说“如果不齐心协力,人工智能就不可能尽量变得安全和有益”。不过他也写道“在未来几年内,AI可能让我们提前退休,并享受高标准的生活”。

团队解散了,人员难道只能等着“优化”?帖子称,前AGI准备团队成员将被重新分配到其他团队。

OpenAI发言人则表示“我们完全支持其在行业外从事政策研究的决定,并对他的贡献深表感谢;他计划全力投入人工智能政策的独立研究,这让他有机会在更大范围内产生影响,我们很高兴能从他的工作中学习并关注其影响。我们相信,在新的岗位上,其将继续提高行业和政府的决策质量。”

高管接连跑路,OpenAI前途生变?

据外媒,AGI Readiness团队解散的消息是在OpenAI董事会可能计划将公司重组为营利性企业,以及首席技术官米拉·穆拉提(Mira Murati)、研究主管鲍勃·麦克格鲁(Bob McGrew)和研究副总裁巴雷特·佐夫(Barret Zoph)三位高管在上月同一天宣布离职之后传出的。

对于一家上规模的公司而言,人员来来往往很正常,但这么多高层同时离职,很明显,是在对公司的发展道路方向的把控上出现了分歧!

离职的高管,显然不止上述几位:就在今年5月,OpenAI决定解散其“超级对齐”(Super alignment)团队,该团队专注于人工智能的长期风险,这距离其宣布成立该小组仅一年时间。

团队成立于2023年7月,其目标是“在 OpenAI 大量计算的支持下,到2027年解决(对齐)问题”。该团队主要关注“科学和技术突破,以引导和控制比我们聪明得多的人工智能系统”。当时,OpenAI表示将在四年内为该计划投入20%的计算能力。

解散的原因,自然还是“主心骨”的离去:当时OpenAI联合创始人,首席科学家伊利亚·苏茨克维尔(Ilya Sutskever)和扬·莱克(Jan Leike)先后宣布离职。

在OpenAI,苏茨克维尔称,他的优先事项不是“构建下一个GPT版本”,而是找出如何阻止超级人工智能“失控”的方法。他认为,ChatGPT可能是有“意识”的。他认为,世界需要认识到这种技术的真正力量,因为有一天,一些人类可能会选择与机器融合。

这些看似疯狂的话,现在听起来并不像一两年前那么疯狂。ChatGPT已经改变了很多人对即将发生的事情的期望,将“永远不会发生”变成“会比你想象的更快发生”。例如,今年推出的ChatGPT·4o,一些方面就已经达到了“人类的智力水平”。这样下去不敢想象!

Leike在社交媒体上的一篇文章中写道,OpenAI的“安全文化和流程已经被闪亮的产品所取代”。

OpenAI首席执行官山姆·阿尔特曼(Sam Altman)当时在社交媒体上说,他对Leike的离开感到难过,OpenAI还有更多工作要做。不久之后,联合创始人格雷格·布罗克曼(Greg Brockman)在X上发布了一份声明,声称公司已经“提高了人们对AGI风险和机遇的认识,从而让世界更好地做好准备”。

莱克当时在社交媒体上写道“我之所以加入,是因为我认为OpenAI将是世界上进行这项研究的最佳场所;然而,在相当长的一段时间里,我一直与OpenAI领导层在公司的核心优先事项上存在分歧,直到我们最终达到了一个爆发点。”

Leike写道,他认为公司应该将更多的注意力集中在安全、监管、对AI时代的准备,以及可能的社会影响方面。“这些问题相当难以解决,我担心我们没有走上正确的轨道。在过去的几个月里,我的团队一直在逆风航行。有时我们为(计算资源)而苦苦挣扎,要完成这项至关重要的研究越来越难。”还补充说,OpenAI必须成为一家“安全第一的AGI公司”。

他在社交媒体上写道“打造比人类更智能的机器本身就是一项危险的工作,OpenAI代表全人类肩负着巨大的责任。但在过去几年里,安全文化和流程已经被闪亮的产品所取代。”

一手抓搞钱,一手抓安全

今年10月早些时候,OpenAI以1570亿美元的估值完成了一轮热闹的融资,其中包括该公司从众多投资公司和大型科技公司筹集的66亿美元。该公司还获得了40亿美元的循环信贷额度,使其流动资金总额超过100亿美元。据外媒援引知情人士,该公司预计今年37亿美元的营收将出现约50亿美元的亏损。

亏损是怎么带来的呢?OpenAI在训练各种大模型的投入大概在70亿美元左右,支付员工的工资是15亿美元,仅ChatGPT每天的运营成本就要70万美元。可见AI烧钱速度之快!

面对如此亏损,大金主也坐不住了:就在近日,微软高管在发布第一财季业绩后的电话会上表示,第二财季将披露对OpenAI持股的亏损情况。

就在今年7月,微软放弃了其在OpenAI董事会的观察员席位,并表示“微软现在可以让位了,因为它对这家初创公司董事会的建设感到满意”。

虽然已经退出董事会,但微软依旧是OpenAI的最大股东,据外媒近日消息,微软正与OpenAI进行140亿美元的投资股权谈判。其转型之后在公司治理、发展方面有多少实际的控制权也是谈判重点。特别是微软退出董事会后,整个谈判流程非常复杂、繁琐。

今年9月,OpenAI宣布其安全与安保委员会将成为“一个独立的董事会监督委员会”。该委员会最近结束了为期90天的审查,评估了OpenAI的流程和保障措施,然后向董事会提出了建议,审查结果也在一篇公开的博客文章中公布。

这条消息的背后,是大模型被戴上了“紧箍咒”:今年9月,OpenAI与美国AI安全研究所达成合作协议,对于未来的模型进行预发布测试。这也就是说,只有通过美国政府的各种安全测试,OpenAI才能发布领先的大模型。已经无法自行发布产品,无形之中会限制其技术的发挥。

高管相继离职和董事会变动的消息,也是继今年夏天围绕OpenAI的安全问题和争议日益增多之后传出的。

随着各行各业的公司争先恐后地开发人工智能聊天机器人功能,以避免被竞争对手甩在身后,OpenAI与谷歌、微软、Meta和其他公司正处于人工智能军备竞赛的风口浪尖。

熟悉情况的消息人士当时证实,今年7月,OpenAI重新分配了OpenAI的安全高管之一亚历山大·马德里(Aleksander Madry)的工作,转而专注于人工智能推理。

根据普林斯顿大学人工智能计划网站上关于马德里的简历,马德里曾是OpenAI的准备工作负责人,该团队的“任务是跟踪、评估、预测和帮助防范与前沿人工智能模型相关的灾难性风险”。OpenAI当时表示,马德里在新岗位上仍将从事核心的人工智能安全工作。

就在决定调任马德里的同时,民主党参议员就“OpenAI如何解决新出现的安全问题”致信阿尔特曼。据外媒,信中还写道:“我们希望OpenAI提供更多信息,说明公司正在采取哪些措施来履行其在安全方面的公开承诺,公司如何在内部评估这些承诺的进展情况,以及公司对网络安全威胁的识别和缓解情况。”

但在今年6月,OpenAI的一群现任和前任员工发表了一封公开信,对人工智能行业在缺乏监督和缺乏对线人保护的情况下取得的快速发展表示担忧。

这些员工当时写道人工智能公司有很强的经济动机来逃避有效监督,我们不认为定制的公司治理结构足以改变这种状况”。

这封信发表几天后,一位熟悉此事的消息人士表示,联邦贸易委员会和司法部将对OpenAI、微软和英伟达展开反垄断调查,重点调查这些公司的行为。

联邦贸易委员会主席莉娜·汗(Lina Khan)将该机构的行动描述为“对人工智能开发者和主要云服务提供商之间的投资和合作关系进行市场调查”。

这些现任和前任员工在6月份的信中写道,所有的人工智能公司拥有“大量非公开信息”,这些信息涉及他们的技术的使用范围、他们采取的安全措施的范围以及该技术对不同类型伤害的风险等级。

他们补充说,“我们也了解这些技术所带来的严重风险,这些公司目前只有微弱的义务与政府分享部分信息,而没有义务与民间社会分享任何信息。我们认为,不能依靠它们全部自愿分享这些信息”。

尾声

很明显,目前的OpenAI里,存在着“两个司令部”、“两条路线”的斗争,一条是尽可能努力打造更加“酷炫”的产品,另一条则呼吁关注人工智能飞速发展对社会的全面影响——无论是正面还是负面的,而高管的频繁变动,体现了斗争的激烈。有关OpenAI的未来,让我们拭目以待!

免责声明:本文来自财经下午茶客户端,不代表超天才网的观点和立场。文章及图片来源网络,版权归作者所有,如有投诉请联系删除。

0 0 0

有话要说

超天才网©2017 www.supergenius.cn All Rights Reserved ICP备09005826号 京ICP证130304号

联系我们| 加入我们| 法律声明| 关于我们| 评论互动

超天才网©2013-2014 All Rights Reserved 京ICP备09005826号-2 京ICP证130304号

京公网安备 11010802036640号

关注我们: