• 机器人法律
  • lawTopic
  • 美国发展人工智能要从娃娃抓起,白宫AI报告7大要点解读

    • 机器人法律
    • 时间:2016-11-10
    • 来源: 机器人网
    • 编译:lielvwang
    • 我要投稿
    • 0

    【AI世代编者按】美国白宫今年5月发布了一份备受期待的报告,题为《准备好人工智能的未来》(关注“AI世代”(微信号:tencentAI),回复“白宫”可下载该报告中文版)。

    报告由总统办公室与美国科学和技术委员会(NSTC)共同发布,长达58页,对美国政府未来应对人工智能的方式进行了研究、记录和建议。


     

    这份报告由NSTC下属的机器学习和人工智能子委员会制作,其中谈到了“跨部门合作,针对与人工智能相关的技术和政策提供建议,以及跟踪人工智能技术在产业界、科研领域,以及联邦政府之间的发展”。

    NSTC举办了5场研讨会,并发布了公开的“信息征集”通知。该委员会基于所获得的信息提出了正式建议。正如报告中所说,“在过去几十年的研究中,试图通过拓展狭义人工智能去实现通用人工智能的努力并未取得太大成果”。

    23条正式建议可以归纳为以下7点。对关注人工智能的任何人来说,这都是个很好的指南。这7点将对美国未来的技术发展产生明显影响。为了更好地利用这些新机会,业内所有人都应当熟悉这7点。

    关注“AI世代”(tencentAI),回复“白宫”,可获得美国白宫人工智能报告。
     

    >>>>1、人工智能的应用方式应当对公众有利

    人工智能正在给公众带来帮助,例如在医疗、交通、司法和经济等领域。

    一个典型案例是将人工智能用于交通管理,这将极大地缩短等待时间,并推动碳排放减少最多25%。对于动物保护和研究,游客发布至社交媒体的照片可以由人工智能去分析,从而更好地追踪动物的迁徙。未来,我们还将看到更强的司法体系,包括犯罪报告和保释量刑。

    那么未来我们要如何去做?美国政府建议,政府部门和非政府机构都应当开展投资,研究人工智能如何给特定业务和行业带来帮助。他们还计划创建开源的人工智能训练数据库,确保所有人都可以在新时代中获得必要的技术。

    >>>>2、政府应当拥抱人工智能

    人工智能将提高人类的效率,因此所有部门都应当接受人工智能。美国国防部高级研究计划局(DARPA)开发了教育系统,为海军的征兵人员提供了数字教官。美国政府的建议是,所有政府部门都应当引入这样的数字教官。

    与此同时,美国政府宣布了对人工智能研究更多的联邦支持。民间将是主要的发展动力,但政府部门需要向投资不足的基础性研究投入更多精力,并在民间不感兴趣的领域开展长期研究。

    >>>>3、自动驾驶的汽车和飞机需要得到监管

    制定这种新的监管规定是由于两方面原因:保护公众,确保经济竞争的公平性。

    自动驾驶的汽车和飞机需要在短期内获得明确的监管。针对当前汽车的安全标准应当得到更新,以覆盖自动驾驶汽车。美国各地和联邦法律需要调整,支持这类新事物的发展。此外,美国政府应当投资开发及部署先进的自动化空中交通管理系统。

    制定适当的监管措施意味着找到业内资深人士去设想及制定新法律。政府将成立多维度的联邦工作组,从而确保公平性。

    >>>>4、从娃娃抓起

    许多人可能都听过美国总统奥巴马关于如何赋能下一代的演讲。奥巴马建议,所有美国学生,无论是在幼儿园还是高中,都应当“学习计算机科学,在科技驱动的世界里用计算机的思维技巧去武装自己”。

    美国将建立并维护相应的研究者队伍,其中包括计算机科学家、统计学家、数据库和软件程序员、图书馆学家,以及具备特定数据科学知识的档案保管员。

    这不仅是关于人工智能的教学,还包括如何安全利用人工智能。从这个角度来说,各类学校和大学应当在人工智能、机器学习、计算机科学和数据科学的教育中引入技术伦理,以及关于安全和隐私的课题。

    >>>>5、用人工智能去补充人力,而不是代替人力

    报告指出,“2015年一项覆盖17个国家的机器人研究显示,从1993年至2007年,机器人给这些国家带来了每年0.4%的GDP增长”。不过外界也担心,人工智能将取代人工,尤其是对低收入工种造成威胁,可能扩大收入差距。尽管报告并未明确指出,应当如何解决这些问题,但报告认为,应当探索这方面的解决方案。报告给出的建议是,应当认真研究这一问题,并寻找解决办法。

    有案例表明,通过与人工的配合,人工智能可以发挥最佳效果。这就是从照片判断淋巴细胞中是否存在癌细胞。报告指出:“基于人工智能的方法错误率为7.5%,而人工专家的错误率为3.5%。如果将两者结合在一起,那么错误率可以下降至0.5%。”

    >>>>6、消除数据本身的偏见,否则就不要使用这些数据

    对数据的使用应当公平、合理、负责任。人工智能在一个封闭的世界中接受训练,但随后将被用于开放的世界。这样的变化需要提前得到考虑和规划。

    以司法系统为例。机器学习可以在这一领域带来巨大的帮助。报告指出:“关于大数据最大的担忧在于缺乏数据,或者说缺乏高质量的数据。”如果数据不完整或存在偏见,那么人工智能将会放大其中的问题,而不是修复问题。没有人会希望,机器在缺乏足够信息的情况下,判断某人是航空飞行的安全风险。

    数据偏见可能带来问题的另一个领域在于对求职申请的筛选。在英国,基于计算机判断去拒绝求职者被视为非法。

    >>>>7、考虑安全性和全球发展

    这或许是整份文件中最重要的一条:从长期来看,对于超级智能,或者说通用人工智能的担忧不应当影响当前政策。

    这条建议允许商业机密,但不是秘密行动。报告指出,如果竞争促使商业实验室趋于保密,那么监督人工智能的发展,确保道德标准将会更困难。在这一方面,报告建议定义里程碑并记录,跟踪企业是否达到了这些里程碑。这样做既可以保证商业机密,也可以对人工智能的发展保持跟踪。

    美国政府还提出一项计划,对其他国家人工智能的发展进行跟踪。通过国际间的人工智能合作,美国政府将制定跨政府的策略。此外,美国政府还将制作相关主题清单,确保国际参与和监督。文件中特别提到,日本、韩国、德国、波兰、英国和意大利是可能的合作伙伴。

    对企业来说,这份报告中最关键之处或许在于支持人工智能伦理和人工智能训练的财务计划;需要企业参与的公共里程碑;以及对人工智能开发者新的责任标准。整体来看,这份报告对人工智能表达了乐观态度,而未来非常清晰。人工智能就在这里,美国将热情地拥抱人工智能,但也将保持一定程度的谨慎。(编译/陈桦)
     

    [打印文本] []
    
    全部评论(0
    TOP Bookmark