机器人高峰论坛
  • 资讯
  • News
  • 行业资讯
  • IndustryNews
  • 面对道德困境自动驾驶汽车该如何应对?

    • 行业资讯
    • 时间:2016-08-29
    • 来源: 凤凰科技
    • 编译:lx
    • 我要投稿
    • 0
       
    自动驾驶汽车的成熟之路上必然伴随各种道德问题
     
       北京时间8月29日消息,据外媒报道,近日,谷歌工程总监科兹威尔在奇点大学发表了一场演讲,在谈到自动驾驶汽车面对“道德困境”将如何做选择时,他表示现在这个问题依然处于无解状态。
     
      在日常生活中,我们时常会遇到道德困境,人们必须做出两难选择,机器也一样。最近,Uber宣布在匹兹堡推出自动驾驶服务,这非常令人兴奋。不过,如果自动驾驶汽车面临一种道德困境,它将如何选择,设计者是否已经为它们设计好了应对方式呢?
     
      举例来说,如果自动驾驶汽车快要撞上另一辆汽车,那车里坐着三个人。它可以快速转弯闪开,但拯救车上三个人的后果是撞上人行道上的三个孩子,这时它会作何选择?
     
      这一典型的例子在自动驾驶汽车发展初期就被提出来了,而科兹威尔对这一问题的回答可以总结为:我们不知道。
     
      科兹威尔认为,原本的“机器人不可杀人”这一定律过于简单了,它并没有考虑到一些特殊情况。举例来说,如果有人将要炸毁一幢建筑物或一个城市,那么机器人除掉他们就是符合道德的。
     
      就自动驾驶汽车来说,科兹威尔认为我们有必要对其进行“道德设计”。在演讲中,他提到了著名的机器人三原则,即:
     
      1:机器人不得伤害人类,或看到人类受到伤害而袖手旁观.
     
      2:机器人必须服从人类的命令,除非这条命令与第一条相矛盾。
     
      3:机器人必须保护自己,除非这种保护与以上两条相矛盾。
     
      那么,对自动驾驶汽车来说,可以挽救某人的生命却没有这样做,是否可以等同于杀戮呢?
     
      科兹威尔承认,在无人驾驶汽车的道德品性方面,他现在完全没有现成的答案。“我需要花更多时间进行思考,此前我没有进行过相关分析。”科兹威尔说道。
     
      关于这一道德难题,谷歌首席工程师安德鲁认为,当无人驾驶汽车面临两难选择时,“答案差不多总是‘踩刹车’。”
     
      他承认,这可能并不是完全正确的答案。但如果连踩刹车都不是一种正确的应对,那自动驾驶汽车面临的就是极端情形了。
     
      不过,这个世界上不就是充满着极端情形吗?谷歌这种模棱两可的回答实在不能令人满意。
     
      最近,麻省理工学院的研究人员创建了一个名为道德机器(Moral Machine)的调查项目。除了想知道面对此种情景人们会作何选择,此举还想获知人们希望无人驾驶汽车在面临道德困境时如何选择。
     
      这项调查看起来相当明智,但最终结果如何我们实在无法想象。
     
      对于该问题,Uber选择不予置评,也许它们对自动驾驶汽车的“道德困境”问题也暂时无解。
    声明:凡资讯来源注明为其他媒体来源的信息,均为转载自其他媒体,并不代表本网站赞同其观点,也不代表本网站对其真实性负责。您若对该文章内容有任何疑问或质疑,请立即与中国机器人网(www.robot-china.com)联系,本网站将迅速给您回应并做处理。
    电话:021-39553798-8007
    [打印文本] []
    
    全部评论(0
    TOP Bookmark