机器人高峰论坛
  • 资讯
  • News
  • 行业资讯
  • IndustryNews
  • 全面盘点美国AI技术、产业和战略

    • 行业资讯
    • 时间:2016-11-29
    • 来源: 智东西
    • 编译:zy
    • 我要投稿
    • 0
       2011年,奥巴马在卡内基·梅隆大学位于匹兹堡的国家机器人工程中心宣布了美国国家机器人计划(National Robotics Initiative),计划内容包括包括制造业、可持续农业、太空和海底勘探、医疗卫生、交通、个人和国土安全,以及灾难恢复能力和可持续的基础设施建设。
     
      今年5月,联邦机构也参与组成了美国国家科学和技术委员会(NSTC)下属白宫科技政策办公室(OSTP)机器学习和人工智能小组委员会。本期的智能内参,我们推荐来自美国总统行政办公室及国家科学和技术理事会的人工智能战略白皮书。
     
      以下为智能内参整理呈现的干货:
     
      人工智能和机器学习是一个充满潜能的领域,能够提高人的生活质量,帮助解决一些世界上最大的难题和效率低下的工作。而人工智能的基础研究和应用研发方面的投入,也已经逐渐开始回报。
     
      AI有着显然的战略重要性,同时,它也能帮助联邦政府监察世界各地的重要变化,预警全球事态发展,以便及时按需的改变美国的政策。AI在联邦科学、技术、工程、日益强调知识和教育和数学(STEM)教育项目等领域都有显著的推进作用。AI教育也是计算机科学的一个组成部分,总统倡议所有的美国学生,从幼儿园到高中到学习计算机科学和配备的计算思维技能,他们需要更早的进入技术驱动的世界。
     
      AI应用化进程加速面临诸多挑战
     
      目前,AI的主流应用为策略游戏、语言翻译、自动驾驶、图像识别等。也有部分AI系统用于商业服务、医疗诊断、教育、科研等领域,公共领域诸应用包括医疗、交通、环境、刑事司法和经济等。政府本身的工作效率也正在随着AI的进步获得更快地响应,更有效地完成他们的任务。
     
      AI在政策方面的主要问题是,其许多产品,如自动驾驶汽车、无人机,需要遵守一定的管理和规范,减少驱动程序错误,增加个人移动性,并保护公众免受伤害,且确保经济竞争更公平。同时,政府也应考虑如何降低管理成本,调动AI的经济效益。
     

     
      AI主流的社会担忧则在于超智能AI将超越人类的理解和控制,它在关键领域的应用或将造成不可估量的严重破坏。AI专家和从业人员更多的担忧则在于AI衍生的佣工、助理、培训师问题,以及系统操作安全和道德问题。
     
      AI或引发贫富差扩大危机
     
      AI最主要的经济影响将体现的自动化技术领域:之前不能自动化的工艺将能够实现自动化。这将有可能提高生产力和创造财富,但它也可能以不同的方式影响特定类型的工作,减少对于某些技能的工作岗位需求,但也可以增加其他技能的工作需求,从而弥补就业率。
     
      白宫局的经济分析顾问(CEA)认为,自动化的负面影响将主要体现在较低工资的工作,还有一种最大的风险是,AI驱动的自动化将增加教育水平低的人和受过良好教育的人之间的工资差距,有可能增加贫富差距。这就需要公共政策来解决这些风险,确保工人的再培训和就业。公共政策也需要推动AI在更广的领域推动经济效益。
     
      AI管控要求公正、安全
     
      随着人工智能技术迈向更广泛部署,技术专家、政策分析家和伦理学家开始担忧的其意想不到的后果。基于AI的人力管理,引发了对如何确保公正、公平和问责制的担忧。同样的问题在2014的大数据白皮书中也提到过。而AI可能的挑战和风险,已然引发了业界专家的关注和预警。
     
      安全方面,最为主要的担忧在于将AI对物理世界的控制从”封闭的世界”(实验室)安全地过渡到外面的”开放的世界”,或许有不可预知的事情会发生。而飞机、发电厂、车辆、桥梁等问题的安全经验,并不能给AI从业人员足够的启示。
     
      技术层面来讲,安全和公平是同一个的挑战。对于两种情况,AI业者要做的是力争避免无意识的行为,并说服相关利益者AI不会发生意外。
     
      此外,AI从业人员和学生的道德培训是非常重要的一部分。理想情况下,每个学生学习人工智能、计算机科学或数据科学会面临相关的探讨伦理与安全主题。然而,道德观念是不够的。伦理培训还应注重教育人员在操作时注重必要的细节,避免不能承担的意外。
     
      AI涉及的国际关系和安全领域
     
      AI是最近国际讨论的热点,作为国家、多边机构感兴趣的话题,利益相关者已经开始引进AI并准备面对挑战。对话与合作可以帮助推动人工智能研发和发挥AI优势,帮助共同攻克难关。、
     
      首先要面对的是AI的网络安全问题,包括防守与进攻性网络措施。目前,设计和操作安全的系统要求大量的时间和人力。部分或完全自动化的AI可能会增加跨系统安全应用范围,并大大降低成本,增加国家的网络防御的敏捷性。AI或可用于及时检测和快速响应,应对不断变换的潜在威胁。
     
      武器系统方面,AI或将创造更高精度、更安全、更人性化的军事环境。然而,直接远离人类控制的武器系统,已然存在诸多伦理及法律问题。目前,美国活跃于致命的自主式武器系统的国际对话,协调国际人道主义法、政府政策以及自主或半自主武器。
     
      机器学习频爆研发进展
     
      机器学习是人工智能的重要技术途径之一,也是最近AI商业应用进展的基础。现代机器学习是一个统计过程,利用已有的数据来预测未来数据。这与传统的AI算法不同。传统算法是由程序员和专家利用专业知识制定规则,进行决策,转化为软件代码。机器学习的一大优势在于,可以解决难以直观理解的难题,无需明确的规则,只需大量的数据采集,就能进行预测。
     
      因此,互联网公司可以收集用户登录信息来判断账户安全性和用户信用;医疗机构可以通过参数模拟来训练医生,整合病例。经过不断的反馈,也就是数据训练,机器学习将对特定的问题给出一个最为贴切的模型,以及大量、高精度的可调参数,来帮助人类工作和决策。
     
      深度学习是这两年来最为热门的机器学习分支,使用结构松散的类人脑网络,每个单元(神经元)结合一组输入值产生的输出值,反过来转嫁到下游其他单位(神经元)。大规模的深度学习提供了新的、强大的进展,也因此成为研究热潮。
     
      以图像识别为例:底层单位结合原始数据,也就是简单图案;第二层单位利用第一层的简化结果进行识别,然后将结果与第一层模式结合输给第三层单位;第三层单位再处理、结合……以此类推,可达百层之多,可实现复杂、多元、精确的数据模式识别。
     
      自动化和人机协作
     
      AI系统用于物理驱动,尤其是自主式、自动化等,需要应对不断变化的环境参数,承担无人运作的挑战,包括自我诊断和修复,寻找安全漏洞。目前主要的自动化应用有自动内容精选、自动金融交易、半自动驾驶、无人机、自治文学等。自动化以及相关的就业,是社会和经济关注的主要问题,也是推动工业变革进程的主要动力。
     
      不同于自动化替代人类,还有一种情况是机器作为人类工作的辅助,也就是人工智能发展的副产品——人机协作。AI强大的数据库可以为增强人类认知能力,弥补个人弱势。人机协作的主要应用包括棋类游戏、医疗图像诊断等。
     
      AI应用案例
     
      在沃尔特里德医疗中心,退伍军人事务部用AI来更好地预测医学并发症和提高治疗严重打击的伤口,导致患者的治疗效果更好,更快疗愈,并降低成本。当前医疗档案过渡到电子健康档案,可以帮助健康数据预测分析,从而发挥关键作用,应用于卫生领域、精密医学和癌症的研究。
     
      运输方面,启用AI的智能交通管理应用程序减少等待时间,能量使用和排放量25%。部分城市已经开始是使用AI响应调度,提供实时公交资讯。
     
      还有一些研究人员,正在利用使用AI图像跟踪分类软件,来分析公共社交媒体网站的旅游照片,识别照片中的动物个体,生成数据和位置,研究和改善动物迁徙,涉及栖息保护地,保护濒危物种。自动驾驶船只也应用于复杂的海洋探索,了解敏感的海洋生态变化和极地气候,进行气象监测,管理非法捕捞。
     
      AI在刑事司法系统方面也有潜在的应用,包括犯罪报告、治安维护、保释、量刑、假释决定。政府也在研究如何利用AI驱动正义,提供警察可靠的数据,帮助执法,更好地告知刑事司法中的决策系统,同时也注意AI可能会引入偏见或不准确之处。
     
      芝加哥大学、南加州大学、斯坦福大学等学术机构也纷纷利用AI系统了解和解决社会经济问题,包括失学、失业、全球贫困问题。当然,这类研究采用的是卫星图像分析,依靠大量机器学习训练,但要求不能涉及个人隐私或者商业机密。
     
      联邦政府致力于减少平困和增加经济效益,控制社会流动性,并试图将AI与国防、能源、情报等部门联系起来。对于大型的研发预算,比如劳动力机构,将采用与私营部门合作的方式进行理论创新和实验研究。国立卫生研究院也投入了大量的研究经费。DARPA也在利用AI数字导师训练海军新兵。
     
      23条意见
     
      1、鼓励私营和公共机构利用人工智能造福社会。司法机构和公共政策机构可以与人工智能研究人员合作寻求社会问题的解决方案。
     
      2、联邦政府应开放训练数据方式和数据标准,通过大量公开政府数据推动学术界、私营部门的人工智能研究和应用。
     
      3、联邦政府应创建更多类似DARPA这样的机构,支持高风险、高回报的人工智能研究与应用。
     
      4、国家科学技术委员会人工智能与机器学习分委会应该为官方的人工智能实践者建立一个实践社区,共享各项标准、课程和实践方案。
     
      5、在设定人工智能产品的监管政策时,各政府机构应咨询合适的高级技术专家,招揽相关人才。
     
      6、各机构在人事招聘中应当注意人才的多元结构,培养不同观点的联邦工作人员。
     
      7、交通部应和产业部门及研究人员应合作探讨数据共享方法。联邦机构短期内应侧重于在不侵犯消费者隐私的情况下,开发更丰富的数据集。
     
      8、政府应投资更高级的、自动化的空中交通管理系统。
     
      9、交通部应开发实时监管框架,适应自动驾驶汽车和无人机安全的集成到运输系统中。
     
      10、国家科学技术委员会机器学习和人工智能分委会应即时回报工作进展,酌情向公众报告发展情况。
     
      11、政府应关注他国人工智能发展状况和总体进展。
     
      12、政府应在与产业的合作中把握人工智能进程,扩大其经济效益。
     
      13、联邦政府应优先发展基础和长期人工智能研究。因为基础和长期研究是私人部门不愿意投资的领域。联邦投资对这些领域的研发至关重要。
     
      14、国家科学技术委员会机器学习和人工智能分委会和网络与信息技术研发计划分委会,以及科技工程教育分委会应当合作开发一项人工智能人才输送的研究。
     
      15、总统行政办公室应在今年年底前发布一份后续报告,进一步调查人工智能和自动化对美国就业市场的影响,并概述政策反应。
     
      16、人工智能投入使用应当经过多次可靠的试验,来确保系统的有效性和公正性。
     
      17、开放审查条款,确保用联邦赠款基金购买的基于人工智能的产品或服务所带来的结果是透明的,并且由有效的、公平的证据支持。
     
      18、鼓励高校将人工智能相关的伦理学、安全、隐私、安防问题列入机器学习、计算机科学、数据科学等课程中去。
     
      19、人工智能专家应与安全专家及其专业学会充分对话,推动人工智能安全工程走向成熟。
     
      20、美国政府应制定一项关于人工智能国际参与的政府层面的战略,并拟定需要国际参与和监控的专题清单。
     
      21、美国政府应加强与国际上的利益相关者(包括外国政府、国际组织、行业、学术界等)联系交流,促进研发合作。
     
      22、各机构平台应充分考虑人工智能可能引起的网络安全问题。
     
      23、美国政府应制定符合国际人道主义法律的自主式武器政策。
     
      AI很有可能成为经济增长和社会进步的主要驱动力,成为一项社会全体的变革行为。这就需要政府发挥监控管理的作用,提供合理的应用框架和法律约束,鼓励技术创新的同时保护公众隐私安全,注重生产效率的同时保障劳工利益,推进AI应用系统的开放、透明和易懂。
    声明:凡资讯来源注明为其他媒体来源的信息,均为转载自其他媒体,并不代表本网站赞同其观点,也不代表本网站对其真实性负责。您若对该文章内容有任何疑问或质疑,请立即与中国机器人网(www.robot-china.com)联系,本网站将迅速给您回应并做处理。
    电话:021-39553798-8007
    [打印文本] []
    
    全部评论(0
    TOP Bookmark