• 机器人法律
  • lawTopic
  • 借鉴美国经验 未雨绸缪人工智能监管

    • 机器人法律
    • 时间:2016-06-13
    • 来源: 机器人网
    • 编译:lielvwang
    • 我要投稿
    • 0
           中国目前侧重于打造平台、培育企业、构建市场、激励创新等方面,对于监管原则、监管体系和监管机构建设,基本没有部署。

     

    大众一般认为,新技术的研发是难度最大的,应用及监管与研发相比难度就会低很多。但对于将深远影响人类社会运营方式的人工智能来说,情况或许正好相反。

     

    人工智能的潜在缺陷与控制

     

    目前基于人工智能所开发的自动控制、模式识别和机器学习系统,其实都是人工智能领域非常初级的部分,往往需要研发团队针对实际应用场景设置重要先决条件,以降低人工智能系统的判别难度并提高准确率。当各种极客型的技术人员大开脑洞采用人工智能技术研发各种黑科技时,他们的关注范围是非常聚焦的,即按照最优条件下设想人工智能的应用范围和场景,较少考虑相关技术在复杂条件甚至人为滥用的情况下面临的困境。这往往也为人工智能潜在的不当使用埋下了伏笔。

     

    人工智能作为信息化系统,一定会受到自身设计的局限和开发质量的影响。再加上人工智能在识别和判断时需要基于人工设置和历史数据,通过精心设计的训练过程才能得到基于概率的判别结果。所以对于人工智能系统,在特定前提或应用场景下作出错误决策是100%会出现的。作为政府和监管部门,面临的第一个重要问题就是系统错误决策所引起的财产损失甚至人身伤亡该如何判定责任与承担赔偿,甚至要能够提出合理的原则,区分哪些错误决策是小概率事件本身引发的,哪些错误决策是由于系统设计、训练数据和训练过程存在问题所导致的。

     

    2016214日,上路试验已经六年的谷歌自动驾驶汽车第一次由于系统“误判”导致了交通事故。谷歌公司表示自动驾驶汽车在这次轻微车祸中承担“部分责任”。由此可见,当时的谷歌自动驾驶系统在特定场景下触发了一个错误决策。可以想象,当自动驾驶汽车全面行驶在大街小巷时,系统的微小错误导致的责任事故会基于巨大的汽车保有量而放大成为一个引人注目的数字。由此而引起的责任划定和赔偿也会由于人工智能和人类行为的混合作用而变得异常复杂。

     

    另一个广为人知的应用缺陷就是公平性问题。2016年哈佛大学肯尼迪学院发布的分析报告指出,目前针对犯罪倾向性预测的人工智能系统,无论技术人员如何调整机器学习的策略和算法,人种肤色都成为无法抹去的高优先识别变量。人工智能系统评估结果出现了明显的对黑人群体的偏见,这是现阶段人工智能技术手段无法避免的,也是人工智能系统广泛应用于现有社会环境并为社会大众所接受的一个重要的障碍。

     

    在以上问题没有经过实践验证的法律支持和监管框架管理下,人工智能的全面应用很有可能带来相关领域社会活动的混乱并造成意想不到的后果。

     

    逐步建立的人工智能监管

     

    美国政府对于人工智能的广泛应用和相关监管框架一直保持关注,并在特定领域开始小范围的实践。

     

    以人工智能领域目前相对成熟且应用前景广阔的自动驾驶为例,企业能够尽快推进自动驾驶技术开发的重要原因,是在制度方面得到了美国政府的大力支持。

     

    20125月,美国内华达州汽车管理局为谷歌自动驾驶汽车发放了美国首张自动驾驶车辆许可证,此前内华达州议会通过了允许自动驾驶车辆上路的法条。八个月后谷歌又在加利福尼亚州取得了许可证。随之而来,奥迪和丰田也先后在美国的一些州拿到了实验许可证并开展公路测试。一时间,美国成为各国企业争先开展自动驾驶的试验田,加速了自动驾驶技术的成熟。

     

    虽然美国交通管理部门积极配合自动驾驶技术的测试和路试,但是对于正式的应用许可还是采用非常审慎的态度。201410月,加州车辆管理局同时颁发了29张自动驾驶汽车公共道路测试许可证,分别给了谷歌、戴姆勒、大众三家公司,获得许可的条件之一是人可以随时干预汽车驾驶,以确保在人工智能广泛测试和安全性之间取得平衡。

     

    加州车辆管理局201512月提出了一项监管草案,要求所有自动驾驶汽车的驾驶座上必须始终乘坐一名拥有驾照的人士,并要求汽车在设计方面必须拥有方向盘、油门踏板、制动踏板等传统机动车具备的基本操控装置,以便具有驾驶资质的人在无人驾驶汽车失灵时可随时接管汽车的操作。在草案细则中,加州还规定了自动驾驶的三年试用期。消费者可以通过租赁的方式从制造商处获得自动驾驶汽车,但制造商需要跟踪记录消费者的驾驶情况,把汽车性能指标和驾驶记录递交机动车辆管理局。

     

    可以看到,美国的交通部门在放行自动驾驶技术时是逐步进行,并尽量确保过渡阶段监管规则的连续性。尽管谷歌等自动驾驶技术公司向公众抱怨,政府过于严厉的监管和相对谨慎的态度阻碍了自动驾驶技术向实用水平的快速发展,但这是监管部门职责所在,他们必须保护公众在享受新技术成果的同时,避免潜在技术缺陷导致的伤害。今年1月,美国运输部长AnthonyFoxx表示,将在六个月内出台自动驾驶汽车指导原则。美国高速公路交通安全管理局(NTHSA)也表示,为了加速自动驾驶汽车的发展,该机构将放弃一些目前针对自动驾驶汽车的安全要求。

     

    收益和风险前瞻

     

    201653日,白宫的副首席技术官埃德·费尔顿宣布,白宫将组织一系列有关人工智能收益与风险的研讨,“为人工智能的未来而准备”。

     

    此次人工智能领域的系列研讨包括以下内容:

    2016524日,西雅图:与人工智能相关的法律与监管事务;

    201667日,华盛顿:人工智能与社会福利;

    2016628日,匹兹堡:人工智能的安全与控制;

    201677日,纽约:近期的人工智能技术对社会和经济的影响。

     

    此次人工智能领域的研讨,一方面涵盖了从立法到监管原则的确定,为政府全面管理人工智能确立法理依据和管理边界;另一方面,也将深入探讨人工智能有可能存在的缺陷以及相应的安全控制原则。此外,研讨视角不仅面向具体的监管框架,同时还包含了对就业、社会福利、经济发展的长远影响的分析。

     

    从此次人工智能的研讨主题来看,美国政府的决策机构已经在思考人工智能的全面应用对于社会整体运行的冲击与改变。例如,人类是否有可能在某些领域滥用人工智能技术,比如刑事司法、劳动雇佣等领域。在支撑人工智能技术广泛收集公众和个人信息时,又存在着数据所有权和应用范围的边界:哪些组织和企业可以搜集个人信息;使用个人信息时,使用的机构应该承担什么样的义务?通过严格清晰的数据拥有和使用责任的界定,促使利用人工智能和大数据工具的人控制他们的决策行为,以符合法律与社会的基本准则。

     

    需要强调的是,这次研讨并不是政府为主发一家之言,而是白宫科技政策办公室牵头,分别由西雅图大学、计算研究协会、卡耐基梅隆大学和纽约大学信息法律研究所等高校和研究机构组织,多所一流大学和企业研究人士共同参与的研讨会。这一系列高规格人工智能研讨结果,将作为美国政府制定人工智能立法和监管原则的重要来源。

     

    中国人工智能的管理现状

     

    中国政府在最近几年一直大力推进人工智能产业的发展,重心仍然放在鼓励技术研发方面。对于人工智能技术应用所带来的产业与社会转型冲击,以及监管方面的及时调整和跟进,目前还缺乏整体认识和积极部署。可以说,政府还没有意识到自身应该如何参与到人工智能的发展,以及相应的法律法规、监管体系和管理架构应该如何进行调整,以适应新的社会需求与技术现实。

     

    还是以自动驾驶应用为例,目前国内自动驾驶技术多被作为科研项目进行测试。相关的法律法规和监管问题,在企业多次推动下并没有明确的进展。比如,中国企业在国内进行公路自动驾驶测试时,还无法为测试车辆悬挂测试牌照。201512月百度首次自动驾驶汽车的路测过程中,由于交管部门没有任何有关自动驾驶测试的指导规定,百度公司只能安排驾驶员坐在方向盘后面,而交管部门也默认该车为有人驾驶而未加干涉。

     

    2016年全国“两会”期间,全国政协委员、百度公司董事长兼首席执行官李彦宏提议,中国应尽快组织开展关于无人车牌照发放、行驶规定、事故认责等方面的研究。他还建议尽快修订和完善无人驾驶相关的法律法规,为无人驾驶汽车的研发、测试和商业化应用提供制度保障。

     

    但在2016523日由国家发改委、科技部、工信部、中央网信办制定印发的《“互联网+”人工智能三年行动实施方案》中,政府还是侧重于打造平台、培育企业、构建市场、激励创新等方面。虽然文中也谈到了资金支持、标准体系建设、知识产权保护、人才培养、国际合作等方面,但对于监管原则、监管体系和相关监管机构的建设则基本没有提及。

     

    可以预见,现有的法律法规未必适应未来的人工智能新型应用模式,会对人工智能的快速发展构成阻碍,但在出现人工智能应用的重大缺陷或者安全隐患时,也没有相关法规和条例指导政府机构合理合法地规避人工智能的发展风险。这将导致新技术应用与推广过程中付出不必要的成本,甚至会因噎废食,阻碍人工智能行业的发展。(本文由中国首家互联网法律+O2O第一门户——猎律网整理)

    [打印文本] []
    
    全部评论(0
    TOP Bookmark