巨大野心 OpenAI的政策是否会威胁人类?
最近,OpenAI在技术圈中占据了特殊地位,也许目前生成人工智能领域最著名的产品就是它的产品,尤其是在 2022 年 11 月底推出最著名的聊天机器人“ChatGPT”之后。
此外,随着即将与苹果公司达成的让“ChatGPT”在 iPhone 中运行的协议,将这家初创公司置于目前世界上最大的两家公司:微软和苹果之间,除了受益于其庞大的资源之外,这还使其有机会在企业领域与微软客户合作,还将使苹果客户及其设备(例如 iPhone)的用户受益。
但 OpenAI 与其他公司的真正区别在于其寻求实现的巨大雄心,它并不满足于自己的成就,相反,它表示正在尝试开发通用人工智能(AGI),该系统被认为是一个可以在许多领域执行达到或超过人类思维水平的任务的系统。这就是为什么如果该公司想要在不久的将来开发这样的超级系统,就应该有明确安全保障政策的原因。
风险团队解决方案
去年7月,OpenAI宣布成立一个新的研究团队,负责准备开发“超智能”人工智能,使其能够超越并战胜其创造者。
随后,该公司选择其首席研究员兼创始人之一首席科学家伊利亚·苏茨克沃(Ilya Sutskever)和他的亲信詹·莱克(Jan Leike)担任这个新团队的联合领导者,OpenAI 当时表示,该团队将在4年内拥有20%的算力。
该团队的主要任务是专注于“引导和控制比我们更聪明的人工智能系统的科学技术进步”。
几个月前,OpenAI 几乎失去了那些非常关心确保公司开发的人工智能系统安全的员工。
据一位知情人士日前向 CNBC 证实,现在,该公司已经开始完全裁掉他们,在宣布成立一年后,由首席执行官山姆·阿尔特曼领导的公司,决定解散这个专注于人工智能长期风险的团队。
这位不愿透露姓名的人士表示,一些团队成员已被重新分配到公司内的其他几个团队。
在此消息发布前几天,团队负责人伊利亚·苏茨克沃和詹·莱克宣布离开这家初创公司。苏茨克沃没有透露离职原因,但莱克详细解释了他离开公司的原因,并在 X 平台上的账户上表示:“制造比人类更聪明的机器本质上是一项冒险的工作。”并补充说,“ OpenAI 代表全人类承担着巨大的责任,但在过去的几年里,安全文化和运营的下降是以牺牲华而不实的产品为代价。”
“如果我们身处一部好莱坞电影中,我们可能会认为该公司在其中一个人工智能系统中发现了危险的秘密,或者开发了一种即将毁灭人类的超级模型,这就是为什么我决定摆脱人工智能风险团队,但我们不是在好莱坞电影里,”也许这个问题最终取决于山姆·阿尔特曼本人,以及他在过去一段时间里对公司施加的权力程度。
公司内部的多个消息来源表明,这些员工对公司首席执行官山姆·阿尔特曼及其领导风格失去了信心,这就是莱克在他的帖子中解释的很长一段时间,直到终于到达了路的尽头。

解雇尝试失败
为了试图了解所发生事件的原因,我们必须稍微回溯到去年 11 月,当时伊利亚·苏茨克沃与公司董事会合作,试图解雇山姆·阿尔特曼本人。这场解雇的参与者表示,“山姆·阿尔特曼在与董事会的沟通中并不一贯坦诚”, 这意味着他们不信任他,因此他们决定迅速采取行动,除掉他。
但问题开始变得越来越复杂,《华尔街日报》和其他媒体报道称,苏茨克沃的工作重点是确保人工智能不会伤害人类,尽管包括阿尔特曼在内的其他人都热衷于推进新技术的开发,但这可能向我们展示了阿尔特曼在指导公司发展方向时的想法。
问题发生时,山姆·阿尔特曼的下台引发了一股辞职或辞职威胁,其中包括几乎所有公司员工签署的公开信,以及引起投资者的哗然,其中包括微软、阿尔特曼及其盟友、公司总裁兼创始人之一格雷格·布罗克曼威胁称,他们将把公司最优秀的人才转移到微软。如果阿尔特曼不复职,OpenAI 将被有效摧毁,面对这种威胁,董事会屈服了。
一周之内,阿尔特曼胜利重返 OpenAI,海伦·托纳、塔莎·麦考利和伊利亚·苏茨克沃投票推翻了阿尔特曼,苏茨克沃当时仍在员工队伍中,但不再是董事会成员。
阿尔特曼随后回归,比以前更强大,拥有新的、更支持的董事会成员,并拥有更大的经营公司的自由。

增益最大化策略
阿尔特曼对他被解雇的反应可能暴露了他的性格,他威胁要清算 OpenAI,除非董事会重新任命他,而他坚持招募对他有利的新成员加入董事会,这表明他坚持牢牢掌握权力,并避免在未来对其所做的事情进行任何监督或问责。
一些前员工甚至形容他是一个说一套做一套的骗子,比如阿尔特曼声称他要优先考虑安全,但他的行为和行动却自相矛盾,他疯狂地寻求以非常快的速度开发人工智能技术。
例如,阿尔特曼过去一段时间一直在中东旅行,从沙特阿拉伯和阿联酋筹集资金和巨额投资,以便他可以建立一家新公司,制造人工智能模型的处理芯片,这将为他提供开发一般或超人智能所需的大量资源,这让公司内具有安全意识的员工感到担忧。
摆脱长期人工智能风险团队只是该公司及其首席执行官不惜一切代价开发最强大的现代系统政策的又一次确认,没有必要给安全团队20%的公司计算能力,这是任何人工智能公司最重要的资源,因为公司可能会将其重定向到其他开发流程。
这从詹·莱克辞职后的言论中不难推断出来,他表示,“在过去的几个月里,我的团队一直在逆潮流而行,我们有时会遇到计算能力不足的问题,进行这项重要的研究变得越来越困难。 ”
最后,詹·莱克确实证实了这一点说,公司内部的安全文化和流程已经让位于“闪亮的产品”。当然,我们不知道我们的未来会怎样,我们也无法预测公司在开发通用人工智能方面会成功还是失败,但让我们担心的是 OpenAI 解雇的安全团队发生了什么,很简单,寻求开发这种超级人工智能的公司只对利益最大化感兴趣,而不顾警告和风险!