人工智能在过去几个月中以前所未有的方式发展,并已成为许多人持续日常工作中不可或缺的一部分,尽管有了这样的发展和广泛传播,人工智能的优势和能力仍然是潜在的,等待被发现,因此公司正在不断努力获取这些隐藏的能力。

尽管公司和用户都在竞相寻找人工智能可以为平民生活做出贡献的新工作,但全球军队——特别是美国陆军——却持有不同的观点,因为它将人工智能技术视为增强其全球技术优势的黄金机会。

公司立场发生变化

在军事上利用人工智能的努力并不新鲜,但它们是秘密的,因为过去几个月没有一家公司宣布打算与世界各地的军事和情报机构合作,这使得专家们认为人工智能尚未准备好用于军事用途。

但令人惊讶的是,人工智能模型Claude的开发商、ChatGPT最激烈的竞争对手Anthropic却宣布:它打算通过与亚马逊和以开发政府信息系统而闻名的Palantir达成的协议,向美国军事和情报机构提供服务。

该协议使Palantir能够通过亚马逊云服务将其系统集成到Anthropic最新的人工智能模型中,从而使员工能够更轻松地审查过去需要很长时间才能审查的复杂文档和数据,这加快了需要快速决策的敏感事务的决策过程。

与这一协议类似,Meta改变了其免费、开源AI模型的使用政策,随后,最著名的人工智能模型ChatGPT的所有者OpenAI今年年初在公司政策方面发生了变化,允许其模型用于军事用途后,宣布将其出售给空军。

虽然每家公司都寻求根据自己的战略实现利润,但允许军事用途的同时转变至少反映了公司及其董事会内部的真实趋势,因为这些公司的许多员工反对改变允许军事用途的政策。

目前,人工智能的用途仅限于拾取信号、监视各种目标以及预测对重要目标的各种攻击 (Shutterstock)

人工智能应用的发展

尽管开发人工智能模型的技术公司最近改变了政策,但特别是美国陆军长期以来一直在使用人工智能技术,然而通过开发自己的技术,与商业上可用的人工智能技术分开。

《泰晤士报》网站报道称,美国陆军在2022年至2023年期间将用于开发人工智能技术的支出增加两倍,达到5.57亿美元,而不是1.9亿美元。

值得注意的是,这笔支出是为美国陆军开发人工智能系统,随着有关获取外部公司开发的人工智能技术的协议,预计今年将再次上升,美国陆军可能会为外部使用这些技术的权利付费,因为它们比内部开发的技术更强大、更好。

目前,人工智能的用途仅限于拾取信号、监视各种目标以及预测对重要目标的各种攻击,但随着获取外部技术的合同的签署,这种用途预计将大幅扩大。

人权担忧

世界正在进入人工智能在军事技术中使用的时代,袋子里装满了科幻电影,讲述武装人工智能手中的世界末日,以及一系列关于这些创新技术用于军事用途及其后果的人权担忧。

过去几年,随着人工智能和自动驾驶机制的发展,全球出现了许多要求完全禁止这些技术在军事上使用并首先阻止其发展的要求,新西兰裁军和军备控制部长菲尔·特怀福德表示,新西兰处于反对派的最前沿。

2021年,特怀福德呼吁制定一项国际法,禁止使用人工智能武器,并指出一群携带武器的小型无人机曾在2020年用来攻击利比亚武装分子。

已有30多个国家以及来自世界各地的众多人权活动人士加入了特怀福德禁止这些武器的运动,但以美国、中国、俄罗斯为代表的世界主要军事强国否认了这些担忧,拒绝彻底通过该决议。

相比之下,Anthropic首席执行官达里奥·阿莫迪(Dario Amodei)认为,民主国家的责任是开发可用于商业和军事的人工智能系统,以保护世界免受专制国家滥用这些技术以谋取自身利益的侵害,这是他在与Palantir签署协议后在博客上发表的一份声明中表达的内容。

内部反对

除了国际社会和人权界反对在武器中使用人工智能技术之外,这些科技公司的工人在许多不同的职位上明确而显着地表达了对使用此类技术的反对。

2018年,谷歌员工组织了针对该公司的抗议活动,迫使该公司放弃允许五角大楼使用其技术的军事合同,尽管该公司在一份官方声明中宣布打算放弃这些合同并留下它们,但其行为却与这一声明完全相反,这引发了对其管理层的巨大愤怒。

今年,亚马逊和谷歌员工的立场再次出现,因为他们开发的技术被以色列军队用于加沙战争,而谷歌内部的人工智能开发团队则与同事分享了一条秘密信息,表明该公司的人工智能技术并未用于针对加沙的战争。

接下来怎么办?

公司有权追求不断增长的利润,但这绝不能以牺牲全球安全为代价,尽管各公司和政府机构对以不侵犯人权的安全方式使用这些技术做出了许多保证,但这并不是对这些用途的真正保证。

在科学飞速发展的今天,我们不禁想起核弹发明者奥本海默的那句名言:“现在我成为了死神,世界的毁灭者。”

来源 : 半岛电视台