美国联军司令部的戈登・詹森对军事机器人有句名言:“它们不会饥饿,不会害怕,但会牢牢记住自己的使命。”
如果在现实中,军事机器人发生故障或出错会怎样?谢菲尔德大学人工智能教授诺埃尔・夏基说,目前的自主机器人还无法准确区分平民和战斗人员,但这是国际法和国际人道主义的基石。他还强调,即便是具有人工智能的机器人,也会缺乏人类所拥有的一种微妙的判断和拿捏能力―――如何在获得军事优势的前提下最大限度地避免平民伤亡。因为,即便是在战争中,不必要的杀戮也是可耻的。
美国海军研究室的研究报告承认,在自动机器人上有伦理和法律障碍。这份文件中称,“明智的做法”是为自动机器人编入至少与人类士兵一样的伦理程序,虽然即使这样“意外也有可能发生”。但这至少将其纳入了法律范畴。
纽约大学计算机学科学家罗布・亚历山大则表达了不同的看法,他说:“这一步或许有些太远。一台机器无论如何也无法承担法律或道德责任,在可以预见的未来里都是如此,我们不是在谈论电影《星际迷航》里面的机器人。这些责任必须由操作者或设计者来承担。”
除了智能机器人可能犯下的错误外,另外还需要注意到的一点是:这些高科技武器的出现和发展不但改变了现代战争的局面,也提供了一种新的“低成本、低消耗”的战争方式。
诺埃尔・夏基说,这可能会降低战争的门槛。此前对战争发起者而言压力最大,也是在抑制战争上非常重要的一个因素就是死亡人数,但在无需人员直接前往前线的机器人战争中,这一切将变得不再重要。而真正的危险在于,自助式机器人将减少发动战争的政治成本,从而使其不再成为最后的手段。