尽管科幻电影《终结者》里的场面不会很快成为现实,毫无疑问的是,随着机器人变得更加智能化且拥有更多自主权,它们上位的关键环节在于:具备“讲道德”的能力。
这并非狂言妄语。最近,《纽约客》杂志专栏作家加里·马库斯,撰文描绘了谷歌的无人驾驶汽车可能面临的两难抉择:“你的车正以80公里时速行驶,载有40名孩子的校车错误地闯了红灯。你的车是否可以为了避免事故而急转弯,不惜危及主人的生命;还是继续行驶,置孩子们的安危于不顾?决定必须在瞬间做出,而电脑不会拨打求援电话。”
如果把主角换成未来战场上的机器人士兵,情况又会变成什么样?如果明知一座堡垒内有无辜平民,无人机能否学会不向可疑目标开火?我们能否教会机器人遵守国际冲突的规则?佐治亚理工学院的计算机学和机器人专家罗纳德·阿金相信这是必须的,他正在开发名为“道德总督”的软件系统,意在让机器人自主决定何时应该开火、何时不开火。
做到这点可能得耗费数十年,但只要坚持下去,机器人有望在身体和道德上双双超越人类,不受变态复仇等负面情感的左右。阿金教授表示,他并不想建立清一色的机器人大军,而是想让机器人和人类一道工作,承担高风险的任务,并在压力下做出妥当的应对。