• 机器人法律
  • lawTopic
  • 研究人员尝试建立机器人法律框架

    • 机器人法律
    • 时间:2016-03-14
    • 来源: 华声论坛
    • 编译:lielvwang
    • 我要投稿
    • 0
     1981年,一名37岁的日本川崎制造厂工人浦田健司进入安全限制区域,试图去维修一个机器人,但仓促之间,他并没有将机器人完全关停。由于机器人没有检测到他的存在,于是,强大的机器人液压臂把他抛进一个邻近的碾磨机内。从此,浦田健司成了第一个记录在案的死于机器人之手的受害者。


      在最新一期国际期刊《社会机器人》上描述的上述情景,许多人也许并不认为这是机器人失误造成的事故。随着机器人的使用从工业环境逐渐扩展到现实生活之中,如何保证在使用机器人时的人类安全已成为一个重要的社会和技术问题。

    目前,像日本和韩国这样的国家正在大力推进并预计在2030年前实现“人类与机器人和谐共处的社会”。韩国预测,到2020年,每个韩国家庭都将拥有一个机器人。

    与那些毫无怨言地执行重复任务的工业机器人不同的是,这些“下一代机器人”将拥有相对的自主权,它们工作在一个以人为中心的环境中,如家庭护理或办公室秘书等。当成群的这些机器人迈开脚步,开始渗透到人类的日常生活中时,人类就不得不对可能发生的安全和法律问题作出规范。

    近来,研究人员就下一代机器人的安全问题提出了一个法律体系框架。他们试图通过“安全智能”来确保一个安全的机器人设计,并提供一种在事故不可避免地发生时的处理办法。研究人员还分析了科幻作家艾萨克·阿西莫夫在其1950年出版的短篇科幻小说《我与机器人》中描绘的“机器人三大法则”,像大多数现今的机器人专家一样,他们对这些法则是否足以确保机器人可安全地履行其职责同样表示怀疑。

    阿西莫夫的机器人三大法则是:一、机器人不得伤害人类,或坐视人类受到伤害而袖手旁观;二、除非违背第一法则,机器人必须服从人类的命令;三、在不违背第一法则及第二法则的情况下,机器人必须保护自己。

    建立机器人法律框架

    研究人员提出的框架中的一个指导原则是将机器人归类为“第三存在”的实体,因为下一代机器人被认为既不是生命/生物(第一存在),也不是非生命/生物(第二存在)。一个“第三存在”的实体其外在和行为类似于生命体,但并不具有自我意识。虽然机器人目前在法律上被列为“第二存在”(属于人类财产),但研究人员认为,“第三存在”的分类将简化事故发生时的责任分担处理。

    将机器人融入人类社会的一个重要挑战是处理“开放结构风险”,此种风险发生在非结构化环境中不可预知的相互作用。开放结构风险的一个例子是,让机器人了解自然(人类)语言的细微差别。虽然自然语言中的每个词语都有一个核心定义,语言的开放结构特征允许其根据外部因素作出不同解释。作为其安全智能概念的一部分,研究人员提出了一种“法律上的机器语言”概念,即通过一定的准则将伦理嵌入到机器人中,其目的是解决与开放结构风险相关的问题,这是阿西莫夫三大法则无法具体处理的。

    研究人员表示,在过去2000年的法律历史中,人类在法律事务中使用人类法律语言来进行交流。这些法则和准则是由自然语言(如英语、汉语、日语、法语等)构成的。当阿西莫夫创立了机器人三大法则这个概念时,他就很容易将人类法律语言直接运用于他的科幻情节中。

    阿西莫夫的三大法则最初只是用于文学目的,其在法律层面上的含糊其辞使得机器人开发者、机器人拥有者和政府之间的责任并不明晰。

    在人类不久将面临的安全问题上,“法律上的机器语言”框架必须将两种基本构想相结合,这两个构想是:“法则即法律”和“内嵌式伦理”。在此一框架内,当其符合阿西莫夫的三大法则时,安全问题不再只是基于机器人的自主智能。相反,安全问题将被分类为带有个别属性和方法的几个不同层次,如机器人的内嵌安全智能、机器人和人类之间的运行方式、控制机器人使用的法律规范等。于是,机器人的安全问题未来就可在此一框架内逐步加以解决。

    限制机器人能力

    研究人员还指出,通过防止机器人理解人类语言,法律上的机器语言在一般情况下就能在人类和机器人之间保持一定的距离。

    那么,真的到了机器人能准确解释人类法律语言的那一天,人类又该如何考虑其合法的地位和权利呢?人类法律体系应当转变成人类—机器人法律体系吗?研究人员预测说,也许到时候就会出现机器人律师和机器人法官,它们将与人类律师和法官一起工作,处理发生在人类和机器人之间的诉讼案件。

    机器人可能会学会人类的善意,也可能会学会人类的欺骗、虚伪和贪婪。有太多的问题等着人类,因此人类必须考虑,到底是让机器人与人类法律体系保持一定距离,还是让其与人类更为接近比较好。

    除了使用机器语言来保持人类与机器人之间的距离外,研究人员还考虑限制普通机器人的能力。研究人员建议关注“基于人类智能的机器人”,这种机器人具有很高的认知能力,从而拥有抽象思维,能以新的方式看待自己的环境。但是,由于普遍意义上的人类智能的定义并不存在,因此很少有人能对基于人类的智能作出一致的定义。但很多机器人设计人员预计,伴随着计算机人工智能技术的突破,基于人类的智能将不可避免地成为现实,机器人将可在缺乏明确的程序规则的情形下学习和适应环境。不过,由于此中问题多多且缺乏必要性,越来越多的研究人员已倾向于禁止基于人类智能的机器人。毕竟,发明机器人的原始目的是为了创造一种工具,而不是设计出一个伪人类。

    面临巨大的挑战

    在该项研究中,研究人员还描述了此前为实现人类—机器人共存社会的一些尝试。例如,“欧洲机器人研究网络”(EURON)正在对机器人伦理进行研究,并试图描绘出一幅机器人伦理的蓝图。韩国政府则制定了一个“机器人道德宪章”,其作为世界上第一个官方的机器人道德准则,旨在避免人类滥用机器人。同样,日本政府的机器人政策委员会也在研究机器人的安全问题。2003年,日本还建立了机器人开发体验区,这是一个设计用来测试机器人如何在现实环境中行为的“机器人城市”。

    除了这些机器人安全的研究之外,监管机构仍然面临着如下许多技术和社会方面的挑战。在技术方面,机器人应使用安全规则进行编程,还是使其具有安全推理的能力?机器人伦理应基于以人类为中心的价值体系,还是将人类的价值体系与机器人自身的价值体系结合起来?在法律上,当发生机器人意外时,应如何划分设计者、生产者、用户甚至是机器人本身的责任?

    研究人员表示,随着机器人越来越融入人类社会,为社会机器人制定一个法律框架的重要性就日渐明显。在人类与机器人和谐共处的社会到来之前,如何在人类—机器人互动(机器人技术开发)和社会制度设计(法律法规框架制定)之间保持平衡,是横亘在人类面前最大的安全挑战。  (本文由中国首家互联网法律+O2O第一门户--猎律网整理)

    [打印文本] []
    
    全部评论(0
    TOP Bookmark