• 机器人法律
  • lawTopic
  • 无人驾驶汽车:法律与伦理如何平衡?

    • 机器人法律
    • 时间:2016-09-30
    • 来源: 搜狐网
    • 编译:lielvwang
    • 我要投稿
    • 0

    2016年年初,围棋人工智能程序AlphaGo击败来自韩国的围棋世界冠军李世石,这一事件让全世界震惊,也让人工智能成为举世关注的焦点。一系列探讨随之而来:机器人是否会全面超越人类智识?未来是否会大面积取代人类,甚至消灭人类?人机共存的社会前景究竟如何?机器人到底是附带技术特征的人类伴侣,还是一种劳动工具?诸如此类问题激荡人心,也从另一个侧面反映出人们对未来社会生产关系和社会架构可能被机器人颠覆的忧虑。

     

    回答上述问题,需要对人工智能具有深切理解,但就目前发展阶段而言,暂时不太可能出现终极答案。人工智能的发展,从始至终都是多学科、多领域、多产业共同作用的结果,如信息科学、语言学、生命科学、脑科学等等。而在这些技术学科之外,还涉及人文、政治、法律、伦理、意识形态等更加纷繁复杂的领域。

    本文尝试从法律规则和伦理角度对人工智能进行提前探讨。案例选择上,考虑到未来无人驾驶汽车最终的产业方向是集感知模块、中央决策模块和底层控制模块为一体,甚至融合生物功能和感知神经器官的一种汽车机器人,某种角度看,百流入溪,百溪汇海,无人驾驶汽车未来极有可能融入人工智能产业,因此本文挑选无人驾驶汽车为标的,希望涵盖机器人、汽车、人工智能等元素。

    法律可能限制产业积极性

    引发法律问题和伦理争议的场景是:无人驾驶汽车在公共道路上致人伤亡、致财产毁损灭失,法律责任如何承担?

    如果按照美国道路交通安全局的分类标准,伴随着汽车自动化技术的逐级进阶,人类也将从驾驶任务中逐步抽离,即从“解放双手”到“解放四肢”,再到“闭上双眼”。而这一过程,恰恰也是汽车自动化系统承担越来越重法律责任的过程。理论上,人类的责任会逐级减轻,汽车制造商的责任将逐步加重,责任承担主体移转将伴随着汽车自动化技术发展的全过程,并且这一趋势基本是不可逆的。在完全无人驾驶阶段,汽车厂商除了承担产品责任之外,还将承担道路交通事故的安全责任,双重责任的叠加,将使得汽车生产厂商不堪重负。

    法律问题之外,对于既可以看作是机器人,又可能在公共空间内致人伤亡的、本质上具有危险物品属性的无人驾驶汽车而言,目前人们所谈论的众多伦理问题,也具有特殊的现实意义。在上述场景中,完全无人驾驶汽车的法律责任分配和相关伦理问题,极有可能对产业发展前途产生掣肘,本文提出一种供商榷的解决方案。

    对于法律责任的承担,其基本原则应当从“法律责任疏解”转变为“法律责任锁定”,汽车厂商最少在三个层面免于承担责任。无人驾驶汽车一旦上路,就进入一种开放式环境,并随之启动自我学习和自我更新功能,在日复一日与外界环境的互动之下,最终行为将远远脱离制造商预期,众多法律风险也将不可控。因此,责任承担的基本思路应当有所转变,从“疏解”变为“锁定”,即制造商只对出厂前在封闭环境下生产出来的无人驾驶汽车的产品质量负责,车身搭载的自动化系统、软件代码、硬件等等全部标准化,出厂进行严格备案和登记,以出厂节点为界,法律责任就此“切断”。具体免责情形包括三种。一是出厂之后,轮式机器人通过自我学习和自我更新产生新程序,以及由此衍生出来的行为,制造商不承担责任;二是任何第三方通过开放系统平台接入的应用,改写的软件代码,制造商免责;三是使用者的衍生责任不应当再往前追溯到汽车制造商,相关案例可比照美国《通信内容端正法案》对网络服务提供商的免责,美国《联邦枪支管理规定》对枪支生产企业的免责等。

    伦理可解决部分问题

    对于伦理困境,按照“代码即法律”的原则,一部分遵循现有解决方式,另一部分依照社会的公序良俗解决,将答案以代码形式嵌入轮式机器人体内。

    自“Robot”(机器人)这个词汇1920年在捷克作家卡雷尔·恰佩克的科幻剧作品《罗素姆的全能机器人》中出现以来,机器人就与普通社会的人文价值挂钩。此后若干年,从电影《终结者》到《黑客帝国》,人最终都成为机器人的俘虏,作品的悲剧结局所体现出来的伦理困境,在过去、现在和将来,都与机器人产业相伴相随。

    目前,与无人驾驶汽车有关的众多伦理问题被提出来广泛讨论,而大部分问题其实都集中在紧急状态下的撞击选择,简单归类可概括出四种场景:

    场景一:左边是6岁幼童,右边是80岁耄耋老者,选择撞谁?此类归为行人冲突类。

    场景二:车辆在山间道路行驶,左边是一位行人,右边是万丈悬崖,但汽车上坐着十位乘客,怎么选?此类归为行人和车内乘客冲突类。

    场景三:左边是无腿乞丐,右边是宾利车,怎么选?此类归为行人和财物冲突类。

    场景四:左边是戴了头盔的骑行者,右边是没有戴头盔的行人,怎么选?此类归为无解类。

    上述场景假设反映了人类对完全无人驾驶汽车所持有的焦灼心态,从探讨角度,提出以下解决方案。

    法律解决一部分问题。按照各国民法、物权法、人身权等法律规定,少数问题是可以从法律角度尝试回答的。比如,人身权和物权冲突,人身权优先;人身权数量冲突,多数优先;财产权冲突,价值高的优先。

    伦理解决一部分问题。比如幼童和老者之间、男人和女人之间、残障人士和健康人士之间如何取舍等问题,需要交给特定范围(某一国或者某一地区)的公民社会自行投票解决。考虑到当地历史、文化、公民伦理倾向等因素,各地各国结论一定会有很大差异。但对于伦理问题的处理,一般只要取得该公民社会超过半数以上的共识,即可将答案转换成代码,嵌入轮式机器人的选择系统。

    剩下的问题,在法律和伦理两个层面都无解,只能交给人工智能进行决断。比如对于场景四所提到的有无戴头盔的选择问题,从最大限度减少人身伤亡的角度,仿佛应该选择对戴头盔的骑行人进行撞击,但从遵纪守法角度,戴头盔的骑行人又恰恰是守法的一方。此类问题的设定充满“抬杠”的逻辑,从伦理、法律、情感各个角度都无解,只能交给人工智能系统进行随机决断。(本文由中国首家互联网法律+O2O第一门户--猎律网整理)

     

    [打印文本] []
    
    全部评论(0
    TOP Bookmark