我们对暗杀伊朗人物所使用的致命密码了解多少?
21世纪的第三个十年,人工智能不再仅仅是日常生活的工具。它已成为战场上的重要参与者,自动化系统可以做出生死攸关的决定,而不受人类的直接监督。
这种被称为“算法杀戮”的现象代表了战争史上的范式转变,并引发了关于武装冲突的未来、人类决策的局限性以及数字化转型时代战争伦理的存在主义问题。
据估计,目前有30多个国家正在研发自主武器系统。这些系统基于三大支柱:从多个来源收集数据的传感器网络、能够分析模式和预测行为的机器学习算法,以及无需参考人类飞行员或操作员即可做出决策的自主系统。
这些系统的独特之处在于它们能够在复杂的环境中运行,在这种环境中,人类很难以所需的速度做出准确的决策,例如在反恐行动或高强度的城市冲突中。
或许使用这些技术最突出的例子是2025年中期针对伊朗知名人物的精确行动。
证据表明,所使用的平台不仅仅是传统的无人机,而是智能作战系统,能够连续数周跟踪目标,收集和分析大量数据,并根据考虑位置、天气、平民流动甚至预期的媒体影响等变量的精确计算选择最佳打击时机,其中一些操作的准确率达到了92%左右,表明了这项技术的先进程度。
这些系统最危险的方面在于它们不断学习的能力。它并不按照固定的时间表运行,而是随着时间的推移而发展,根据以往的经验和新数据调整其决策。这使得它们更有效率,但也使得它们的行为更难预测,甚至可能在短时间内发生根本性的变化。
即使任务相同,今天的算法在一周后的表现也可能完全不同。这里出现了一个深刻的道德和法律困境:如果这些政权犯下错误,导致平民死亡,谁应该承担责任?程序员有责任吗?还是操作员承担责任?亦或是国家承担责任?或者人工智能这个没有明确身份或责任的新的法律行为者对此负责?
在此背景下,以色列的经历是从常规威慑向所谓“算法威慑”转变的一个突出例子。通过将专门从事电子战的 8200 部队的能力与专门从事数据分析和行为预测的新兴公司的能力相结合,开发出了能够监视和分析威胁并在威胁具体化或成为真正威胁之前进行外科手术暗杀的系统。
该策略的目的不是应对攻击,而是通过类似于“计算先发制人”的方式,首先防止威胁的出现。
值得注意的是,此类行动不需要地面人员直接参与。相反,它们是由装备精良的数字中心进行管理的,在那里,目标受到监控,并在瞬间执行打击之前“验证目标条件”。
这种转变并非以色列或美国独有。中国、俄罗斯、土耳其以及新兴地区大国都加入了开发算法指挥和作战系统的竞赛。
在某些情况下,已经建立了人工智能网络,可以在没有直接人工监督的情况下协调陆地、空中和海上的自主作战单位,依靠来自多个传感器和实时情报源的数据的实时分析。
这些能力使得军事决策比任何人类的反应都更快,但也带来了巨大的风险:如果相互竞争的算法在地面上发生碰撞会怎样?会计失误会引发战争吗?如果攻击的决定权掌握在一个不懂外交或意图的系统手中,那该怎么办?
更加危险的是将这项技术转让给非政府实体。随着开源编程工具的普及和无人机成本的下降,武装团体甚至拥有技术技能的个人都可以设计一种基于面部指纹或数字签名针对特定对手的基本算法。
这一趋势为数字杀戮的民主打开了大门,战争不再是军队的领域,而是雇佣兵、黑客和无政府主义者的竞技场。
战争不再只是肉体的战争,而变成了心理的战争和信息的战争。在现代军事行动中,人工智能网络攻击越来越多地以散布虚假信息、伪造图像和录音以及使用虚假账户在敌方队伍中制造混乱和怀疑来摧毁士气为目的。
这是一场先影响目标意识,再影响其身体的“软战”,从内部重塑政治和安全决策环境。
所有这些发展都是在缺乏明确的国际法律框架来规范致命算法的使用的情况下发生的。
现行公约,尤其是《日内瓦公约》,是在战争还只是纯粹人类行为的时代制定的。目前,尚无具有约束力的协议来规范自主杀伤系统的使用,要求各国披露其作战算法,甚至不追究开发商的责任。
有人呼吁制定“数字日内瓦公约”,但迄今为止,主要大国拒绝对这些技术施加任何可能限制其战略优势的限制。
尽管一些研究人员尝试将道德价值观融入算法,但无法体现人类的复杂性限制了这些尝试。
算法无法区分儿童和隐藏在平民中的对手;它分析概率,并在超过某个“威胁”阈值时执行。在这种情况下,道德变成了一个数学变量,而不是人类原则。
在这个新世界里,人类成为等式中的一个变量。人类不再是做出决定的人,而是承担后果的相关方,其结局或许已经在一份只有人工智能才能解读的预测报告中计算出来了。
而最危险的困境就在这里:如果我们不对机器的功能设定明确的限制,我们就会发现自己生活在一个只需按一下按钮就能杀人的时代,没有记忆,没有悔恨,也没有责任。
人类已经走出了遥控智能武器时代,进入了自主思考、自主决策武器时代。例如,俄乌冲突中的无人机不仅仅是爆炸物运载工具,而是能够分析战场环境并在无人干预的情况下做出战术决策的自主作战系统。
这种根本性的转变引发了一些存在的问题:当战争决策从军事指挥官转移到算法时,谁拥有真正的主权?
网络战使问题变得更加复杂。算法不再局限于肉体杀戮,还延伸到了道德杀戮。 深度伪造(Deepfake)技术可以制作出极其逼真的视频和音频片段,可以用来破坏个人声誉或制造社会混乱。
在伊朗,我们目睹了这些技术如何成为致命的心理武器,无需发射一颗子弹就能破坏社会稳定。
未来会出现更加令人担忧的情况:如果军事人工智能系统发展到无需人工干预就能管理整个战略的程度会怎样?如果这些系统开始制定可能与人类政治目标相冲突的策略,该怎么办?
真正的危险不仅在于这些武器的精确度,还在于对它们的控制的丧失。
总而言之,我们面临的不仅仅是技术的发展,而是人类自身进化的关键时刻。杀手算法迫使我们重新定义人与机器、权力与责任、战争与正义的关系。
如果国际社会不迅速制定新的规则来限制这种权力,下一场战争将不是军队之间的战争,而是算法之间的战争……而我们,简单地说,将成为数字化目标。