OpenAI CEO呼吁与中国合作应对AI风险

OpenAI首席执行官阿尔特曼拨通电话,在北京智源人工智能研究院主办的年度会议上发表了开幕主旨演讲。

图片来源:SeongJoon Cho/Bloomberg News

在美国试图通过制裁来遏制中国在人工智能(AI)领域的发展之际,OpenAI首席执行官阿尔特曼(Sam Altman)则选择与中国接触。

美中在AI技术方面的竞争不断升温之际,上周六,阿尔特曼从海外连线参加了一场在北京召开的参与者众多的AI会议,他受到听众的热烈欢迎。他在讲话中强调了美国和中国研究人员通过合作降低AI系统风险的重要性。

“中国拥有一些世界上最优秀的AI人才,”阿尔特曼说。“所以我真心希望中国的AI研究人员能在这方面做出巨大贡献。”

OpenAI没有在中国提供包括ChatGPT在内的服务。

阿尔特曼和人称“AI教父”的杰弗里·辛顿(Geoff Hinton)是在此次会议上发言的十几位美国和英国AI高管和资深研究人员中的两位,这些人来自包括芯片制造商英伟达(Nvidia, NVDA)和生成式AI领军者Midjourney和Anthropic在内的公司。为了能就AI潜在危险发出警告,辛顿已从谷歌离职。

来自芯片制造商英伟达等公司的高管和资深研究人员在于北京举办的会议上发表了讲话。

图片来源:I-Hwa Cheng/Bloomberg News

在此次会议上发言的中方人员来自顶尖大学和公司,包括被美国列入黑名单的通讯设备公司华为技术有限公司(Huawei Technologies)、搜索巨头百度(Baidu, 9888.HK, BIDU)和语音识别公司科大讯飞股份有限公司(iFlytek, 002230.SZ)。美国在2019年对科大讯飞实施了制裁,称其协助中国政府监视新疆地区的维吾尔族和其他穆斯林少数民族。

风投公司Leonis Capital的合伙人、研究AI和中国的Jenny Xiao表示,这是美中AI对话中极为罕见的一次活动。她称,让美国和中国这一领域的代表性人物聚在一起各抒己见,以避免AI军备竞赛、实验室之间的竞争等问题,并帮助建立国际标准,这一点很重要。

美国去年10月份对中国实施制裁,阻止中国获得AI开发所需最流行的尖端芯片。在华盛顿,对中国挑战美国主导地位的焦虑在监管层面的讨论中日益凸显。

根据布鲁金斯学会(Brookings Institution)的分析,按照某些标准看,中国现在在该领域发表的高质量研究论文数量多于美国,但在“范式转移突破”方面仍然落后于美国。中国科技观察人士和行业领袖表示,在生成式AI这一顶级AI系统最新浪潮中,中国的发展仍然比美国落后一两年,并且依赖于美国的创新。

在最近发布的几份政策声明中, 中国政府已将发展AI列为优先事项,同时也在推进监管,以确保AI的发展遵守中国严格的互联网审查制度。

美中竞争掩盖了研究人员之间深度的跨国联系: 根据华盛顿智库安全与新兴技术中心(Center for Security and Emerging Technology)的一项追踪,美国和中国仍是彼此在AI研究方面合作最多的国家。

阿尔特曼5月在国会作证时警告称,AI监管的一个危险之处是“你在拖慢美国行业发展速度的同时,中国或其他国家会取得更快进展”。

同时他还表示,继续参与全球对话至关重要。他说:“这项技术将影响美国人和我们所有人,无论它在哪里发展。”

这个在中国举办的年度会议已成为该国汇集中西方研究人员的最著名论坛之一。自2019年以来,该会议一直由受政府资助的非营利性研究机构北京智源人工智能研究院(Beijing Academy of Artificial Intelligence)主办,该机构有时被称为中国版OpenAI。

该会议主要面向技术人士。今年的会议涵盖广泛主题,从最新的大语言模型和下一代半导体设计,到AI在生命科学和自动驾驶汽车中的应用。

阿尔特曼在专门讨论AI安全和人机对齐的会议上发表了开幕主旨演讲,这是一个争论激烈的研究领域,旨在减轻AI对社会的有害影响。辛顿上周六晚些时候在同一会议上远程发表了闭幕演讲。辛顿介绍了他的一些研究,这些研究使他更加关注AI的风险,并呼吁在场的中国年轻研究人员帮助解决这些问题。

为了能就AI潜在危险发出警告,人称“AI教父”的杰弗里·辛顿已从谷歌离职。辛顿上周六晚些时候在专门讨论AI安全和人机对齐的会议上发表了闭幕演讲。

图片来源:Cole Burston/Bloomberg News

在阿尔特曼发言后的问答环节中,北京智源人工智能研究院理事长张宏江就OpenAI是否会再次开源发问。OpenAI曾公布其代码,以促进基于其工作的更多研究,但已经以安全问题为由日益降低其技术系统的对外开放程度。

张宏江称,开源可能有利于人工智能的安全。他的讲话引发观众的一阵笑声,他还表示,北京智源人工智能研究院将其模型开源是要增加透明度,让人们对AI的发展有一种控制感。

阿尔特曼说:“随着时间的推移,预计未来我们会开源更多模型。”但他也表示,重要的是,应通过取得一种平衡来避免这项技术的滥用。

阿尔特曼已经在进行一场全球旅行,与全球领导人、学生和开发人员会面,包括在印度、以色列和欧洲各地。他强调了谨慎监管的重要意义,眼下欧洲监管机构正在考虑《人工智能法案》(AI Act),该法案被视为全球最宏伟的旨在给AI建立护栏的计划之一,这些护栏旨在应对该技术对人权、健康和安全的影响,以及科技巨头的垄断行为。

中国的监管机构也在推动制定严格的AI开发规定,这些规定与欧盟的法案有相当程度的重叠,但施加了额外的审查措施,禁止生成虚假或政治敏感言论。

中国科技巨头和初创公司已匆匆开发出自己的类似于ChatGPT的产品和其他生成式AI技术。最近几周,中国主管部门拘留了一些人,因为他们涉嫌使用生成式AI工具来制造假新闻或针对个人实施欺诈。

OpenAI在旧金山的办公室。

图片来源:Clara Mokri for The Wall Street Journal

上周五,数以千计与会者在主会场内聆听Meta首席AI科学家Yann LeCun和麻省理工学院教授Max Tegmark的开幕主旨演讲,同时还有数万名在线观众。

现场出席会议的Tegmark微笑着走上台,向观众挥手致意,然后用几句普通话开场。

“现在我们第一次出现了这样一种情况,东方和西方拥有同样的动机来继续发展AI,以获得所有的好处,但又不能走得太快以至失去控制,”Tegmark说,此前他向听众发出警告称,草率的AI开发可能带来灾难性风险。“这是我们大家可以一起努力的事情。”