• 机器人法律
  • lawTopic
  • 英国出台首个机器人伦理标准

    • 机器人法律
    • 时间:2016-09-27
    • 来源: 中国安防展览网
    • 编译:lielvwang
    • 我要投稿
    • 0
      

    到机器人的行为准则,你肯定会想起阿西莫夫(IsaacAsimov)著名的“机器人三原则”:不伤害人类,服从人类指挥,保护自己。现在,英国标准协会(简称BSI)正式发布了一个指南,旨在帮助设计者研发符合伦理规范的机器人,就如同给机器人用上了“紧箍咒”。

    这份指南的名称叫《机器人和机器系统的伦理设计和应用指南》,读起来像是一本健康安全手册,但它强调的“不良行为”简直就像是从科幻小说里摘录出来的。指南指出,机器人欺诈问题、机器人成瘾现象,以及自学习系统越俎代庖的行为,这些都是机器人制造商应该考虑的问题。

    英国出台首个机器人伦理标准

    在英国牛津郡举办的“社会机器人和AI”(Social Roboticsand AI)大会上,西英格兰大学机器人学教授阿兰•温菲尔德(Alan Winfield)说,这个指南代表了“把伦理价值观注入机器人和AI领域的第一步”。

    “据我所知,这是历史上发布的首个关于机器人伦理的设计标准,”温菲尔德表示。“这比阿西莫夫的机器人三原则更加复杂一些,它规定了如何对机器人进行道德风险评估。”

    原则和问题

    这份指南一开头就提出了一些宽泛的道德原则:“机器人的主要设计用途不能是杀人或伤害人类;需要对事情负责的是人类,不是机器人;对于任何一个机器人及行为,都应该有找到背后负责人的可能。”

    接着,该指南强调了一系列更具争议的问题,比如人与机器人之间的情感纽带是否可取,特别是当一个机器人的设计用途是与儿童或老人互动的时候。

    英国谢菲尔德大学的机器人学和AI名誉教授诺埃尔•夏基(NoelSharkey)说,这类机器人可能会在无意中欺骗我们的感情。“最近的一项研究,调查了小型机器人在幼儿园里的使用情况,”他说。“孩子们很喜欢这些机器人,而且对它们有了依恋之情。但是在后来的询问中,孩子们显然认为机器人的认知能力比家里的宠物强。”

    该指南建议,机器人设计者要以透明性为导向,但科学家说,这一点说起来容易做起来难。“AI系统,尤其是深度学习系统的一件棘手事,就是你不可能知道它们做决定的原因,”温菲尔德说。

    在给深度学习技术编程的时候,并不是让它们以固定的方式完成某个特定任务。相反,它们会尝试了数百万次,在这个过程中进行学习,然后制定出一个策略来执行任务。有时候,这些策略会出乎人类创造者的预料,让他们无法理解。

    对人类的歧视

    该指南甚至还暗示会有性别歧视或种族主义倾向的机器人出现,发出了小心机器人“缺乏对文化多样性和多元化的尊重”的警告。

    “警方使用的一些技术这已经显示了这种倾向,”夏基说。这些技术的用途是突显可疑人员,方便警方在机场进行拦截。事实证明,这种技术在种族貌相上存在倾向性。

    温菲尔德说:“毫不夸张地说,深度学习系统使用了整个互联网上的数据来进行训练,但问题是,这些数据本身就是有偏差的。系统倾向于青睐白人中年男子,这显然是一场灾难。各种人类偏见都有可能被携带到系统中。”

    在未来的医疗应用中,系统可能不太擅长为女性或少数族裔做诊断。目前已经有一些语音识别软件识别女声的能力逊色于识别男声,或者是面部识别软件识别黑人比识别白人困难得多。

    “对于机器人,我们需要一个可以打开和检查的黑匣子,”夏基所述。“如果一个机器人警察有种族主义倾向,我们可以关闭它,把它从街头移除。”

    过分依赖机器人

    该指南还提出了更加广泛的社会问题,比如“过分依赖的机器人”,但是在这些问题上应该采取怎样的做法,它没有给设计者指出清楚的方针。

    “过分依赖机器人的一种形式是自动化偏见,当你和一台机器打交道的时间比较长,它每次都为你提供了正确的答案时,你就会开始信任它,自己不再去验证答案。而在这时,机器人可能会给你提供一些十分愚蠢的答案,”夏基说。

    也许以更加长远的目光来看,这份指南提醒我们,流氓机器人“可能会制定出新的或者更改后的行动计划......可能带来无法预料的后果”。

    丹•帕尔默(DanPalmer)是BSI制造业的主管,他说:“使用机器人及自动化技术来提高制程的效率、灵活性和适应性,这是制造业增长的重要组成部分。要让人们接受这种趋势,就必须识别和应对机器人的伦理问题和风险,比如人类变得过分依赖于机器人等等。这份指南提供为机器人和自主系统领域的设计者和用户提供了帮助。”

    对经济和就业的影响

    温菲尔德认为,机器人对经济的影响绝对是积极的,但围绕机器人和就业机会展开的争论则太过两极分化。他的看法是,简单地说“机器人一定会抢走我们的工作”,或者“新工作一定会比旧工作更多”是没有意义的,这得取决于具体情况,总之这是一个相当微妙的问题。

    在影响就业方面,温菲尔德更担心的是AI,而不是有形的机器人。他认为,知识工作者(律师、呼叫中心工作人员、翻译、数据分析师)被AI取代的风险,比体力劳动者被机器人取代的风险更大,因为机器人技术的成熟和部署远远更加困难。而且人们已经发现,在机器人可以发挥优势的地方,都需要人类和机器人并肩工作,因为现在的体力工作无法完全自动化。那些可以完全自动化的体力工作,早就已经自动化了。

    温菲尔德认为,机器人可以创造出新的岗位类型。过去20年的数字化经历提供了一个教训:你很难预测这些工作是什么。关键在于,新技术开辟了创造的新途径。我们显然需要更多的人来维护机器人,但是新技术也催生了新的创业领域。比如OpenBionics3D打印假肢,当初谁能想到机器人可以用这种方式来使用!随着技术的改进,可穿戴机器人将会变得普遍。不仅是残障人士,老年人也可以用它们来代替轮椅。

    温菲尔德认为,还需要很长一段时间,我们才会在道路上看到无人驾驶汽车和卡车,因为这项技术还没有做好上路的准备。

    一个重要的问题在于:这种车是需要人工辅助,还是应该完全自主驾驶。最近发生的特斯拉事故致死案表明,让人类参与自动驾驶任务是一个非常糟糕的做法。

    如果驾驶者在车上无事可干,那么他的注意力就很难集中在道路上,所以,如果你觉得自动驾驶系统一旦遇到问题,驾驶者就可以马上接手,恢复人工控制,这也想得太简单了一些。

    特斯拉的事故还说明机器人的感知能力仍不够好。在行驶过程中,机器人有很多时候都不太了解状况,因为它们在感和和认知上存在缺陷。

    温菲尔德表示,如果一个公司要想获得成功,他们的目标应该是获得“盖章认定”,证明他们的机器人符合相关标准。

    监管是政府给我们提供的一颗定心丸。为什么我们会相信商业客机?因为那是一个高度监管的行业,标准定得非常高。

    商用飞机的经验也应该用在机器人领域。特斯拉就是一个需要进行监管的例子。他们的自动驾驶仪没有公布正式的标准,所以不能信他们。(本文由中国首家互联网法律+O2O第一门户——猎律网整理)

    [打印文本] []
    
    全部评论(0
    TOP Bookmark