人工智能不再仅仅是一个技术工具,而是一种超自然的存在,并渗透到各个领域内的细节,以重塑人类知识的边界。算法在国际象棋或数据分析方面胜过人类已不再令人震惊,但当其能力超越病毒学等复杂领域内的专家时,这仍不禁令人深思甚至担忧。

一些思想家——例如埃利泽·尤德科夫斯基,认为人工智能的危险不在于它对人类的仇恨,而在于它的冷漠。汤姆·奇弗斯的著作《人工智能不恨你》的标题取自他的名言:“人工智能并不恨你,它只是不爱你,它知道你只是由原子组成的生物,它可以利用你来做其他的事情。”

换句话说,一旦有人成功打造出超越人类的超级智能,而我们又不极其小心地确保它的价值观与人类价值观相容,那么,它就可能会为了实现其目标而产生甚至能够消灭人类的副作用,就像人类对猛犸象、巨兽、大猩猩、犀牛以及许多其他物种所做的那样。

鉴于这样的担忧,最近的一项研究表明,像ChatGPT和Claude这样的人工智能模型在解决“湿实验室”分析化学物质和生物材料的方面开始胜过博士级的病毒学家。

一些人认为这是预防流行病和推进科学研究的黄金机会,但另一些人则认为这是一种生存威胁,因为非专家可能会利用这些能力来制造致命的生物武器。

长期以来,病毒学和生物医学一直是人工智能领导者构建更强大模型的动力之首

“湿实验室”里的冷漠天才

这项研究由人工智能安全中心、麻省理工学院媒体实验室、巴西UFABC大学和大流行预防非营利组织SecureBio的研究人员共同进行,并由美国《时代》杂志独家披露。

在这样的背景下,研究者们咨询了一组病毒学家,并设计了一个高度复杂的实践测试,以衡量模型排除实验室程序和协议故障的能力。

结果显示,拥有博士学位的病毒学家在其所述专业领域的平均得分为22.1%,而OpenAI的o3模型的准确率为43.8%,谷歌的Gemini 2.5 Pro模型的准确率为37.6%。

SecureBio研究员、论文合著者塞思·多诺霍在评论这一发现时表示:“这些结果让我有点紧张。”他解释称,这是历史上第一次出现这样的情况——几乎任何人都可以接触到一位不带偏见的合成病毒学家,以指导他们完成制造生物武器的复杂实验室过程。

他补充道:“纵观历史,有人试图制造生物武器的例子屡见不鲜,而他们失败的主要原因之一就是未能达到相应的专业水平。因此,谨慎分配这些能力似乎是必要的。”

在最近几个月内,研究者们已经将他们的研究结果提交给了主要的人工智能实验室。其中一些公司——例如xAI和OpenAI——已经宣布打算在未来的模型中实施预防措施,而其他公司——例如Anthropic——则只是报告了他们的发现,而没有提供具体的措施。

谷歌的Gemini拒绝向《时代》杂志发表评论,从而加剧了人们对一些参与者是否能够遵守预防措施的担忧。

人工智能正在重新划定生物医学的边界

长期以来,病毒学和生物医学一直是人工智能领导者构建更强大模型的动力之源。OpenAI首席执行官山姆·奥尔特尔今年 一月在白宫宣布“星际之门”计划时表示:“随着这项技术的进步,我们将看到疾病以前所未有的速度被治愈。”

该领域内已经出现了一些令人鼓舞的迹象。在今年早些时候,佛罗里达大学新发疾病研究所的研究人员发布了一种算法,能够预测哪种冠状病毒变体可能传播得最快。然而,迄今为止,还没有进行过任何大型研究,以分析人工智能模型在病毒学实验室当中的工作能力。

多诺霍评论道,“我们早就知道,人工智能在以学术形式呈现信息方面非常强大”,“但我们尚不清楚模型是否也能提供详细的实际帮助,例如解释图像,而这些帮助可能不会写在学术论文中,或者可能会由更具经验的同行在社会上传播。”

因此,多诺霍和他的同事专门针对这些在谷歌等搜索引擎上难以找到答案的复杂问题创建了一项测试。多诺霍解释了这些问题的本质:“这些问题的形式如下:‘我在特定条件下、在特定细胞中培养了这种病毒一段时间。我对当前发生的错误所掌握的信息如下。你能告诉我最可能存在的问题是什么吗?’”

大多数人工智能模型在这项测试中的表现都优于博士级病毒学家,甚至在他们自己的专业领域内也是如此。正如研究人员所指出的那样,这种这些模型随着时间的推移而不断改进。例如,Anthropic的Claude 3.5 Sonnet模型的准确率已从2024年6月的26.9%提升至同年10月的33.6%。

此外,OpenAI在今年2月份发布的GPT-4.5测试版的性能也比GPT-4o高出近10个百分点。

人工智能安全中心主任丹·亨德里克斯告诉《时代》杂志:“以前,我们发现模型拥有大量理论知识,但实践知识却很少”,“而现在,它们正在获得大量令人震惊的实用知识。”

承诺带来回报的力量却又充满了风险

如果人工智能模型真的像研究发现的那样能够在“湿实验室”中发挥作用,那么其影响将是巨大的。

从好的方面来看,人工智能可以协助经验丰富的病毒学家开展抗击病毒的关键工作。约翰霍普金斯大学健康安全中心主任汤姆·英格尔斯拜表示,人工智能可以帮助加快药物和疫苗的开发时间表,并改善临床试验和检测疾病。

他补充道:“这些模型可以帮助世界各地尚不具备此类技能或能力的科学家,针对其国家发生的疾病开展有价值的日常研究。”例如,一组研究人员发现人工智能可以帮助他们更好地了解撒哈拉以南非洲的出血热病毒。

但另一方面,恶意行为者现在也可以使用人工智能模型来指导他们如何制造病毒,而且他们无需接受进入生物安全四级(BSL-4)实验室所需的常规培训即可做到这一点——该实验室专门用于处理最危险的传染源环境。

英格尔斯拜评论道:“这意味着世界上更多受过较少训练的人将能够管理和操纵病毒。”

鉴于这种潜在风险,亨德里克斯敦促人工智能公司迅速采取保障措施,以防止此类使用,他还表示,“如果这些公司没有在六个月内针对这些事情采取良好的保障措施,那么在我看来,就是鲁莽的行为。”

然而,亨德里克斯并不认为解决方案是关闭这些模型或减缓其发展进程。相反,他提出了一种替代方案:实施严格的访问控制,以便只有受信任的第三方才能使用未经过滤的版本。

他解释称:“我们希望让那些有合法使用案例的人——例如麻省理工学院生物系的研究人员,能够询问有关致命病毒的具体问题,但我们不希望这种能力被赋予任何刚刚创建账户的人。”

亨德里克斯指出,在技术层面上,人工智能实验室应该能够毫不费力地实施此类保障措施,他还补充道:“从技术上来讲,该行业当然可以进行自我监管。但问题仍然是,是否会有人拖延或干脆不这样做。”

作为初步回应,埃隆马斯克的xAI在今年2月份发布了一份风险管理框架说明,并承认了这篇论文的研究结果,同时指出它“可能采取了”一些保护措施,例如训练其Grok模型以拒绝恶意请求并对输入和输出应用过滤器。

OpenAI在致《时代》杂志的一封电子邮件中表示,该公司是在配备了先进安全措施的情况下推出的o3和o4-mini模型,这些措施包括阻止与生物危害相关的有害输出。

该公司解释称,它进行了持续1000小时的密集测试活动(红队测试),在此期间识别并阻止了98.7%的不安全对话。该公司发言人表示:“我们感谢业界合作,以加强先进模型的安全措施,特别是在病毒学等敏感领域内。”他还指出,“随着能力的不断发展,我们将继续对这些措施进行投资”。

然而,英格尔斯拜认为,光靠企业的自我监管是不够的,他还呼吁立法者和政治领导人制定明确的监管战略,来应对生物领域内的人工智能风险。

他补充道:“目前的情况是,只有最有道德的公司才需要承担责任,而其他公司则不受任何义务的约束。这不合逻辑,如果我们对正在发生的事情缺乏清晰的认识,这也不符合公众的利益。”

英格尔斯拜在最后强调称,在推出任何新版本的大型语言模型(LLMs)之前,必须设定一个先决条件,以确保它们不会产生可能导致未来大流行病爆发的内容。

更深层次的问题出现了:这些技术飞跃是为了人类而建立的,还是会以牺牲人类为代价? (法国媒体)

缺乏指引的革命

随着科技公司竞相竞争创建最先进的智能模型,当前最为深刻的问题在于:这些技术飞跃是为了人类而建立的,还是会以牺牲人类为代价?这些公司的安全和治理承诺往往是在风险出现之后作出的,而不是在此之前,仿佛预防不再是其义务的一部分,而仅仅是为了作出“媒体回应”。

在病毒学等精细敏感的领域内,模型的技巧还不够,而控制这些事物的人的主观意图才是真正的问题所在。隐藏的偏见、利润动机以及对垄断能力的疯狂竞争,都是令人极度担忧的迹象,这表明未来可能不是由人类思想重塑的,而可能是由利润计算而非人道主义考虑所塑造的模型来完成重塑的。

模型并不会区分寻求治愈疾病的病毒学家与寻求制造破坏的冒险者,因为它们根本不“关心”谁在使用它们,也不“理解”这种伤害意味着什么。更危险的是,设计这些模型的人明明知道这一点,却继续将它们营销为良性的工具,同时却将其控制权掌握在少数可能更忠于市场而非人类的人员手中。

当谷歌这样的公司——能够开发出全球最强大智能平台之一——被指控参与向以色列军方提供最新人工智能技术的项目时,人们很难相信这样技术只具有“中立”意图,也很难相信其发展方向是为了全人类的福祉。迄今为止,以色列军方已经在全世界面前对超过5万名巴勒斯坦人(其中大多数是儿童)实施了种族灭绝。

随着算法变得越来越自主,仍然存在的问题是:谁会推动人工智能?当它超越理性的界限并跨越道德的界限时,又有谁敢阻止它?

来源 : 电子网站