欢迎来到进口食品商务网!

以色列、加沙和人工智能机器——这是战争罪行的自动化吗?

2024-04-30 10:01 来源:得道网

过去10年,国际法会议的侧厅举办了关于将人工智能软件引入军事工具包的小组讨论。在阿富汗、巴基斯坦和其他地方使用人工智能驱动的无人机,引发了禁止“杀手机器人”的运动。所有这一切的前提是,你需要把人类的决策作为一种手段来确保——即使技术使战争变得更容易——一个有道德意识的士兵可以确保人类伦理和国际法仍然得到遵守。

以色列《+972杂志》(+972 Magazine)周三公布的一项爆炸性调查,可能会在未来几年颠覆这些讨论。这份基于对六名匿名以色列士兵和情报官员的采访的报告称,以色列军方利用人工智能软件,不仅杀害了激进分子嫌疑人,还杀害了加沙的平民,其规模如此之大、如此之有目的,以至于以色列军队声称遵守国际法的任何说法都将被扔进了窗户。

这些指控中最令人震惊的一点是,这场战争并没有完全委托给人工智能。相反,其中涉及了大量的人类决策。但人类的决定是最大化杀戮,最小化道德和法律的“瓶颈”。

简要地总结一下这些指控,据报道,以色列军队使用了一个名为Lavender的内部人工智能程序,从加沙人口中识别可能的哈马斯和巴勒斯坦伊斯兰圣战组织(PIJ)武装分子,并将其标记为以色列空军轰炸机的目标。在战争的最初几周,当巴勒斯坦人的伤亡人数达到最高时,军方“几乎完全依赖拉文德”,军方“全面批准军官采用拉文德的杀戮名单,而不要求彻底检查机器做出这些选择的原因,也不要求检查它们所依据的原始情报数据”。

这些原始情报数据包括从以色列在加沙的庞大监控系统中提取的一系列参数——包括一个人的年龄、性别、手机使用模式、活动模式、他们所在的WhatsApp群、已知联系人和地址等——以整理出从1到100的评级,确定目标是武装分子的可能性。已知的哈马斯和PIJ武装分子的特征被输入Lavender来训练软件,然后该软件会在加沙的普通人群中寻找相同的特征来帮助建立评级。评级高的人就会成为暗杀的目标,其门槛由高级官员决定。

有四项指控尤其引人注目,因为它们对国际法产生了可怕的影响。

首先,据称拉文德主要用于对付可疑的“初级”(即低级别)武装分子。

其次,人工检查很少,一名军官估计每个目标大约持续20秒,而且主要是为了确认目标是否为男性(哈马斯和PIJ的队伍中没有女性)。

第三,有一项政策显然已经到位,即使用一个名为“爸爸在哪里?”的系统,试图轰炸他们家中的初级目标,即使他们的平民家庭成员在场。这样就会在目标到达房屋时向军方发出警报。这个软件的名字特别恶毒,因为它暗示了目标儿童的脆弱性作为附带损害。+972的报告指出,在这些袭击中使用了所谓的哑弹,而不是精确武器,尽管它们造成了更多的附带损害,因为精确武器太贵了,不能“浪费”在这样的人身上。

最后,为了迎合“不断产生更多暗杀目标的推动力”,该软件还调整了被认为是激进分子的人的门槛。换句话说,如果拉文德没有产生足够的目标,据称就会降低评级门槛,以吸引更多的加沙人——也许只满足了几个标准的人——进入杀伤网。

每当军队试图杀人时,武装冲突的国际习惯法(即关于战争中什么是可接受的、什么是不可接受的具有法律约束力的既定做法)就适用两项检验。首先是区别,也就是说,你必须区分什么是平民目标,什么是军事目标。第二是预防措施——你必须采取一切可行的措施来避免造成平民死亡。

这并不意味着禁止军队杀害平民。在必要和不可避免的情况下,根据所谓的“相称性”原则,允许他们这样做。

在特定的军事行动中可能被杀害的平民的确切人数从来没有被定义过(任何军事律师都会告诉你,试图这样做将是naïve)。但可以理解的是,指导原则始终是尽量减少伤亡。正当的平民死亡人数最多的是为了杀死最有价值的目标,随着目标变得不那么重要,死亡人数也在减少。一般的理解——包括在以色列军方自己规定的程序中——是,杀死一名步兵不值得牺牲一个平民的生命。

但据称,以色列军方对薰衣草的使用在很多方面产生了相反的效果。在战争的头几周,军方的国际法部门预先授权杀死多达15名平民,甚至包括儿童,以消灭任何被人工智能软件标记的目标——这一数字在以色列的作战程序中是前所未有的。一名官员表示,随着时间的推移,这个数字会上下浮动——当指挥官觉得击中的目标不够时,就会上升;当有压力(可能来自美国)要尽量减少平民伤亡时,就会下降。

在一次军事行动中可能被杀害的平民的确切人数从来没有确定过

同样,相称性的指导原则是根据目标值趋向于零平民死亡,而不是为了打击一定数量的目标而调整可接受的平民死亡人数。

针对年轻武装分子的大规模杀伤性武器(据称是因为这种方法最符合以色列在加沙的监视系统的运作方式)尤其令人震惊。如果这是真的,这将证明以色列军方不仅忽视了平民伤亡的可能性,而且实际上在其标准操作程序中将平民与初级武装分子一起杀害制度化。

据称使用薰衣草的方式也未能通过区分测试和国际法禁止在多个战线上“不分青红皂白地攻击”的规定。习惯法所界定的不分青红皂白的攻击包括“不针对某一特定军事目标”或使用“具有不加区分地打击军事目标和平民的性质”的作战方法或手段。

972年的报告生动地描绘了一个践踏这些规则的项目。这不仅包括使用“爸爸在哪里?”这个系统故意将平民住宅纳入杀戮区,然后向他们投掷哑弹,但偶尔也会降低评级门槛,专门为了减少杀戮的歧视。该报告的两个消息来源声称,拉文德接受了部分从加沙公共部门雇员(如警察、消防和救援人员等民防工作者)收集的数据的培训,这增加了平民获得更高评级的可能性。

最重要的是,消息来源声称,在部署“薰衣草”之前,它识别任何与给定参数相匹配的人的准确率只有90%;十分之一的人根本不符合标准。这被认为是一个可以接受的误差幅度。

这种边际的正常缓解可以追溯到人类的决策;你会期望人类仔细检查目标清单,并确保10%变成0%,或者至少尽可能接近这个目标。但是,士兵们例行公事地只进行了简短的检查——主要是为了确定目标是否是男性——这一指控表明情况并非如此。

如果人类士兵可以有意或无意地杀死平民,而机器可以在误差范围内杀死平民,那么这两者之间的区别重要吗?

从理论上讲,使用人工智能软件进行目标定位应该是减少平民生命损失的一项宝贵资产。一名接受采访的972名士兵巧妙地总结了这一理由:“我比一个两天前失去朋友的士兵更相信统计机制。”人类可能会因为情绪原因而杀人,因此可能会有更高的误差率。无人机或无线电操作员在验证数据后从操作室指挥攻击的想法应该会让人感到些许安慰。

但是,许多人会认为,将如此多的目标定罪和选择过程委托给机器,最令人担忧的一个方面不是可能被杀害的平民数量。这是事后的责任问题以及由此产生的激励机制。可以对滥杀滥伤的士兵进行调查和审判,查明其行动的动机并从中吸取教训。人类不分青红皂白的杀戮被视为系统中的一个漏洞,需要根除——即使在战争时期这样做似乎是一项西西弗斯式的任务。

另一方面,机器的误差范围并不理想,但当操作员认为它比人为错误更可取时,它就不会被视为错误。它变成了一种特征。这可能会产生一种信任机器的动机,并放弃人类对最小化错误的责任——这恰恰与战争法的意图背道而驰。以色列军官对+972的证词完美地说明了一种建立在这些不正当动机之上的作战文化。

这是一种仁慈的解释。不那么仁慈的是一种操作文化,在这种文化中,人类决策者的目标是大规模杀戮,表面上为迎合道德和法律而设计的参数被扭曲,以适应这一目标。

这些文化中哪一种更可怕的问题是一个主观的问题。不那么主观的是导致这两者的犯罪行为。

中国进口商网声明:未经许可,不得转载。