本周在日内瓦召开的联合国特定常规武器公约会议上,与会专家讨论了致命性的自主机器人问题。美国斯坦福大学网络与社会研究中心的Peter Asaro表示,越来越多的人赞同,没有人类监督的情形下机器人杀人是不可接受的。
Asaro说,从会议第一天开始,克罗地亚和日本便作出强烈 声明。会议前,日本在一份概述关于该主题所持观点的文件中写道:“日本防卫省不会研制绕过人类的会杀人机器人。”他同时认为,一些国家比如在此前代表团会 议上发布声明有点谨慎的韩国,正在反对自动武器上变得更加直言不讳。当然,“有意义的人类控制”被证实是一个很难达成一致意见的概念。——solidot
当一个人类被自主机器所杀,谁应该为此负责?人权非政府组织-人权观察称,这将是未来战争中一件无法说清,道明的威胁。人权观察组织发表了一篇报告关于在现行立法机构责任制下,明确这责任应该是指挥官,操作员,程序员还是制造商的是多么的困难的一件事。发表该报告是人权观察自2012年发起反对全自主武器生产以及使用以来,最新的禁止杀人机器活动。人权观察组织定义该武器为“在没有人类干预下有能力选择目标并与之交战”的系统,虽然目前还不存在该种意义的全自主武器,但人权观察组织仍旧呼吁要全面性预先禁止。“如果真有全自主武器犯罪,那必须有人为此负责,如果没有人去负责,那这些武器就应该被禁止”这篇报告的作者,同时是人权观察的武器研究人员邦妮.多赫蒂(Bonnie Docherty)这样告诉Motherboard。在日内瓦联合国办事处,这篇报告以“注意这疏忽:杀人机器人问责的缺失”为题发表在传统武器规章(CCW)的前面,在那里,“致命自主武器系统”的会议将在4月13日到17日举行,有关专家和领导人将会讨论关于未来武器潜在的管制办法。该报告称,这些武器不会因它们的行为而付出代价,毕竟它们不是人类。
以现在的国际法定义,像这样的机器人都不在“自然人”的范畴中。报告称,“即使修改国际法庭管辖权,也不能有效地达到惩罚的目的,因为对机器人来说它们不会被谴责所吓倒,更不会感受到惩罚的意义所在”。在目前法律体系下,那些制造这些机器的人类也有可能不用承担任何责任。“在大多数情况下,把责任归咎于程序员或者制造商不够人道,因为他们可能是无意的,甚至根本不可能预见到机器会执行错误的行动”,报告说。由于美国军方以及海外承建商的豁免权,光军事问责也是不够的。兼任新美国国家安全中心研究员的Michael Horowitz表达不同意见,他说建立自主武器问责制是很困难的任务,但并非不可能。已知Horowitz,在过去和其他人合著过《自主武器伦理》的论文。“关键的问题是确定问责水平”他说,“如果我们把问责制具体到扣动扳机,那是很复杂的,但是如果我们首先责问是谁指挥了这次行动,那就跟我们现在的情况有所不同了,但致命性自主武器的引进很有可能会推动指挥系统的进步,我们在禁止它之前很有必要先了解该技术”,Horowitz说。“谈论立法为时尚早”他说“对有关于致命自主武器系统的探讨,仍旧缺乏很多共识,甚至包括对它的定义”。
尽管现在武器还没有真正的自主,但预先禁令的案例并不是没有过的,在1995年,联合国就发布了激光致盲武器的禁令,并在1998年生效。然而,Horowitz说,这条禁令由于它的特别性而比较好执行,但其他的武器,如现在很常见的潜艇,轰炸机,弓弩,在过去,有关预先禁令一直被搁置。“预先禁令的危险在于如果你定义武器类别太宽泛导致你可能会排除大量能够减少平民伤亡的武器设置,或者保护船只,军事基地免受攻击的武器设置”。他说,“在我们讨论应该做什么之前必须准确把握目前什么是我们应该关心的问题”。(编译注:如果预先禁令管的太宽泛,那么有可能会导致很多对减少贫民伤亡,或者保护军事基地的武器设置无法发挥作用)但是邦妮.多赫蒂说:使用这种技术太危险,不信等着瞧。“我们认为这会让战斗方式发生革命性的变化,没有人能因此为这些战争中发生的事情负责”她说,“它把人意从战争中分离开来,我们让机器来决定战场上的生死。在此之前避免悲剧的发生是非常有意义的”。