机器人高峰论坛
  • 资讯
  • News
  • 行业资讯
  • IndustryNews
  • 人工智能公共政策的前景与建议

    • 行业资讯
    • 时间:2016-09-06
    • 来源: 199IT
    • 编译:zy
    • 我要投稿
    • 0
       导读: 纵观历史,人类改造也适应过很多新技术。这篇报告提出人工智能技术开发和应用的推进需要循序渐进——不是单靠技术本身的瞬间意外的跳跃发展——而且我们会以当下现有的技术与环境为基础,让整个适应过程更容易一些。
     
      人工智能应用的目标必须是对社会有价值。我们的政策建议也会遵循这个目标,而且即便这个报告主要关注的是 2030 年的北美城市,建议依然广泛适用于其他城市,同时不受时间限制。一些提升解读和人工智能系统能力并参与其使用的策略可以帮助建立信任,同时防止重大失败。
     
      在增强和提升人类能力和互动时需要小心,还有避免对不同社会阶层的歧视。要强调多做鼓励这个方向以及沟通公共政策探讨的研究。鉴于美国目前的产业监管,需要新的或重组的法律和政策来应对人工智能可能带来的广泛影响。
     
      政策不需要更多也不要更严,而是应该鼓励有用的创新,生成并转化专业知识,并广泛促进企业与公民对解决这些技术带来的关键社会问题的责任感。长期来看,人工智能将会带来新财富,整个社会也要探讨如何分配人工智能技术带来的经济成果的分配问题。
     
      如今以及未来的人工智能政策
     
      纵观历史,人类改造也适应过很多新技术。这篇报告提出人工智能技术开发和应用的推进需要循序渐进——不是单靠技术本身的瞬间意外的跳跃发展——而且我们会以当下现有的技术与环境为基础,让整个适应过程更容易一些。
     
      另一方面,技术、计算机能力或者数据可用性上的小提升也可能会偶尔带来全新的、革新规则的应用。人工智能应用成功与否要看它能为人类生活创造多少价值。未来,是否能轻松地使用和适应人工智能应用,也很大程度地决定了人工智能的成功与否。
     
      相反,由于人工智能应用容易出错和失败,所以其成功与否的标志也包括用户如何感知和容忍这些应用的缺陷。随着人工智能逐渐渗入日常生活并应用到越来越多的重要任务中,系统错误可能会导致用户的反弹,并带来信任问题。
     
      例如,即便自动驾驶汽车造成的事故要比人类少很多,但总是会吸引更多的关注。在提升人类理解人工智能系统和决策(诸如明确解释那些决定)和促进人们使用应用上需要策略,这些策略有助于建立信任并防止重大失败。
     
      同样的,开发者应该帮助维护人们对人工智能应用的期望,这会影响他们使用的幸福感和满意度。如果一个系统承诺的某些功能没能实现,会减少人们对系统的信任度,并降低他们未来使用该系统的意愿。
     
      另一个重要的考虑是接管重要任务的人工智能系统会如何影响人类的交际和各方面的能力。由于机器在某些任务上的表现相当于超人,人类的这些能力可能会逐渐消逝。比如,计算器引入课堂后,孩子们的基本算术运算能力降低了。所以,人类和人工智能系统的能力应该是互补的。人类专注于机器做不好的任务,包括复杂的推理和创造性的表达。
     
      然而,孩子们与人工智能应用接触的越来越多,比如与智能手机上的个人助理互动,跟主题公园里的虚拟动画人物玩耍。较早地接触会促进孩子们与人工智能应用的互动,这也会成他们日常生活中自然的一部分。但是,这也会造成年轻一代与上一代人在感知人工智能对社会的影响时产生代沟。
     
      如果人工智能技术(包括驱动这些技术的高性能计算和大规模数据)无法让社会各阶层间都平等受用,那么同样能加剧现有的机会不平等。接触到这些技术的人在效率和能力上都会有提升。一个人如果有了精确的机器翻译技术,那么他就能更好的使用不同语言的学习资源。类似的还有,如果语音翻译技术只能用在英语中,那么不懂英语的人就会处于劣势。
     
      进一步,人工智能应用及其依赖的数据也许会反应出设计者和使用者的偏见,因为数据是他们决定的。这些偏见会加深现有的社会偏见,并无法让各个社会亚群体平等的受益人工智能带来的好处。
     
      例如,一些语音识别技术不能很好的适用于女性和带有口音的人。随着人工智能逐渐渗入到重要的应用中,这些偏见会让社会各团体间的不平等问题浮出水面。另一方面,与记录在案的人类决策偏见相比,基于人工智能的决策工具有望能极大减少重要决策中的偏见,比如对借钱的人或进过监狱的人的偏见。
     
      私人也越来越担心带有人工智能功能的监控,尤其是在监控设施普及的城市。Sousveillance,一种通过便携设备记录人参与活动的监控也越来越多。
     
      既然对偏见和隐私的看法是基于个人与社会的道德和价值判断,所以关解决这些问题的争论也会多起来,争论一多,解决方案短时间内也就出不来了。由于人工智能正在产生巨大的价值,关于如何分享人工智能经济成果的争议也会多起来——尤其是驱动应用的人工智能专业知识和基础数据集集中在一小批大公司手上。
     
      为了帮助解决个人和社会对快速发展的人工智能技术产生的忧虑,该研究小组提供了三个一般性政策建议。
     
      1. 在所有层级的政府内,制定一个积累人工智能技术专业知识的程序。有效的监管需要更多的能理解并能分析人工智能技术、程序目标以及整体社会价值之间互动的专家。
     
      缺少足够的安全或其他指标方面的专业技术知识,国家或地方政府官员或许或拒绝批准一个非常有前途的应用。或者缺少足够训练的政府官员可能只会简单采纳行业技术专家的说法,批准一个未经充分审查的敏感的应用进入市场。不理解人工智能系统如何与人工行为和社会价值互动,官员们会从错误的角度来评估人工智能对项目目标的影响。
     
      2. 为研究人工智能的平等、安全、隐私和对社会的影响扫清感知到的和实际的障碍。
     
      在一些相关的联邦法律中,如计算机欺诈和滥用法案(Computer Fraud and Abuse Act)和数字千年版权法的反规避条款(the anti-circumvention provision of the Digital Millennium Copyright Act),涉及专有的人工智能系统可能被如何逆向向工程以及被学者、记者和其他研究人员评价的内容还很模糊。当人工智能系统带来了一些实质性后果需要被审查和追究责任时,这些法律的研究就非常重要了。
     
      3. 为人工智能社会影响的跨学科研究提供公共和私人资金支持。
     
      从整个社会来看,我们对人工智能技术的社会影响的研究投入不足。资金要投给那些能够从多角度分析人工智能的跨学科团队,研究范围从智能的基础研究到评估安全、隐私和其他人工智能影响的方法。一下是具体问题:
     
      当一辆自动驾驶汽车或智能医疗设备出现失误时,应该由谁来负责?如何防止人工智能应用产生非法歧视?谁来享有人工智能技术带来的效率提升的成果,以及对于那些技能被淘汰的人应该采取什么样的保护?
     
      随着人工智能被越来越广泛和深入地整合到工业和消费产品中,一些领域中需要调整现有的建立监管制度以适应人工智能创新,或者在某些情况下,根据广泛接受的目标和原则,从根本上重新配置监管制度。
     
      在美国,已经通过各种机构将监管具体到各个行业。在设备中使用人工智能实现医疗诊断和治疗由食品药品监督管理局(FDA)监管,包括定义产品类型和指定产生方法,还有软件工程的标准。无人机在管制空域中的使用由美国联邦航空局(FAA)监管。面向消费者的人工智能系统将由联邦贸易委员会(FTC)监管。金融市场使用的人工智能技术,如高频交易,由证券交易委员会(SEC)监管。
     
      除了针对具体行业制定监管的方法外,“重要基础设施”中定义模糊和广泛的监管类别可能适用于人工智能应用。
     
      奥巴马政府的总统政策指令(PPD)将“重要基础设施”广泛地定义为“对美国至关重要的实体或虚拟的资产、系统和网络,缺少或破坏这些设施将会对安保、国家经济安全、国家公共卫生或安全或其任何组织都会禅城破坏性影响。”今天,一家企业仅通过广泛定义的手段就可以完全不受联邦的监管。但是,联邦政策的大趋势是将监管具体到涉及国民经济的 16 个行业。
     
      涉及到人工智能,重要的基础设施主要是由终端应用来定义的,而不是技术活实际生产人工智能软件的环节来定义的。
     
      像谷歌、Facebook 和亚马逊这样的软件公司已经在积极游说监管机构,避免自家公司被认定为对国民经济关键的公司,声称这将打开监管大门,将不可避免地导致他们为加速产品开发周期而妥协创新能力。无论如何,随着公司在创建,运作,并维持重要设施中使用人工智能,他们会逐渐重视对软件的监管。
     
      一些现有的软件安全监管制度 (例如,FDA 对帮助医生诊疗疾病的软件的管理 ) 要求特定软件工程达到能实现开发者水平上的实践。然而,组装现代软件系统的部件常常来自多家提供商,这些部件都有相对独立的应用。让所有这些开发者都遵循最重要的罕见应用的标准是不可行的或者不可取的。
     
      允许在安全关键应用中不受管制地使用这些部件也是不可取的。从概念上和实践上权衡促进创新和调节安全比较困难。最低限度是,监管机构需要更多的专业知识来了解标准的含义以及研究人员、政府和行业实施的措施。
     
      政策和法律上的考虑
     
      虽然综合研究人工智能(AI)与法律互动方式超过了这篇报告最初的内容范围,似乎是很清楚的是,作为一种变革性的技术,人工智能已具备挑战任何数量的短期、中期和长期的法律假设。
     
      正是法律和政策将如何适应人工智能的进步——人工智能将如何适应法律和政策所体现的价值观——取决于各种社会、文化、经济和其他影响因素,并且根据不同的司法管辖权,可能会有不同的变化。
     
      美国法律是普通法、联邦、州和地方法规和条例以及监管法规的混合体,监管法规也许与人工智能关系最大。在具体的实施中,人工智能可能牵涉到这些法律的每一个来源。例如,内华达州通过了一项法律,广泛允许自动驾驶汽车,并给出了内华达州机动车辆的工艺要求。
     
      同时,美国国家公路交通安全管理局(National Highway Transportation Safety Administration)规定,自动驾驶车的驾驶员是该车的系统,而不是车里的人。一些汽车设计通过将自动模式设定为只有手在方向盘上(至少每一次都是这样)来回避这个问题,让人掌握对车最终的控制和责任。然而,特斯拉的采用这一策略并没有防止 2016 年发生的第一起涉及自动驾驶汽车的交通事故。而且由于大多数人都是第一次体验到实体的人工智能工具,自动交通会强烈影响公众对人工智能的感知。
     
      当然无人驾驶车只是人工智能在服务、产品和其他情境中应用的众多例子之一。将人工智能技术引入税务咨将人工智能技术引入税务咨询、股票市场的自动交易,或者自动生成医疗诊断中,其法律效力也会随着监管者和具体应用的不同而不同。当下非技术性领域,包括在预测警务,非歧视性贷款,医疗应用如老年护理和药物输送,以及儿童互动系统的设计(例如,自动教学系统设计中也对平衡处理进化 vs. 智能设计的方面制定了相关法规)和互动娱乐方面也对对人工智能应用做出了规定。
     
      鉴于目前美国行政法结构,短期内制定出全面的人工智能政策法规似乎不太可能。但是,可以根据人工智能在各种情境中可能出现的法律和政策问题,广泛列出多个类别。
     
      隐私
     
      个人的私密信息可能会被由人工智能做出的决策和预测泄露出来。虽然人工智能牵连到隐私的方式反映的是计算机和互联网技术,但其他问题或许是人工智能独有的。例如,人工智能基于之前模式预测未来行为的潜力也提出一些具有挑战的问题。一些公司已经在使用机器学习预测信用风险。美国利用复杂算法根据罪犯的细节信息预测累犯的可能性,通过此举来考虑假释的可能性。在这些情况下,确保如种族和性取向这类因素不在人工智能做决策时被考虑进去是一个技术挑战。即使当这些特征没有直接提供给算法时,它们或许依然会与一些如邮政编码这类看似无害的特征强烈的关联起来。无论如何,只有经过仔细的设计,测试,和部署,人工智能算法产生的偏见或许才能比一个典型的人少一些。
     
      与人工智能关联的拟人化界面也出现了隐私的问题。社会科学研究发现人们天生会把拟人化技术当成人类看待。在一项研究中,当计算机第一次说出自己何时被生产出来的时候,受试者也更可能回答出自己的出生日期。在另一个研究中,他们在面对一个拟人化的界面时会跳过敏感的问题。基本层面上的问题是:当社会化的机器人“活在”我们的屋子、汽车、办公室、医院病房和手机中时,人类还会继续享受孤独吗?
     
      创新政策
     
      早期关系到责任和话语的法律和政策决策帮助确保互联网中的商业活力。相比之下,今天的软件产业受到了从企业决策的影响,从开放和自由的软件到更加积极追求知识产权保护,导致了专利丛生。在激励人工智能创新并促进合作与保护第三方不受到伤害之间做出适当的权衡将是核心的挑战。
     
      责任(民事)
     
      由于人工智能有组织地直接影响世界,甚至产生实质性的影响,由人工智能造成的伤害会加倍凸显。人工智能可能会做出设计者意料外的行为,这种情况给侵权法中的普遍假设带来了挑战,法院只会判定补偿可预见的伤害。甚至在以公平和效率为准则能更好的判定责任时,法院也许都将责任判给人类当事人。或者,法院可能拒绝追究责任,因为被告在法庭前没有,并且不能预见的人工智能伤害。责任将默认地落在无辜的受害者身上。当人类当事人对机器行为负的责任越来越少时,产品责任的角色作用——还有属于生产这些产品的公司的责任——可能会增加。
     
      责任(刑事)
     
      如果侵权法认为伤害可以预见,那么刑法会可能会进一步认定这些伤害是蓄意的。美国法律尤其重视犯罪动机的概念——作案的想法。随着人工智能应用参与到了原本是由人类完成的任务中,也就可能构成犯罪,法院和其他法律行为人将不得不困惑:应该基于什么理论让谁对所发生的事情负责?
     
      代理
     
      上面的问题带来了这样的问题:在哪种情况下,人工智能系统可以作为一个人或企业的代理进行运作?美国、加拿大等地方的监管机构将条件设置成当软件可以进入有约束性的合同时。人工智能依法开展的突出活动越多,对法律下的代理原则的挑战就越大。
     
      认证
     
      “人工智能”的概念正是意味着对人类技能和智慧的取代。而且在许多情况下(从驾驶到执行手术到法律案件),一个人类必须在获得一些证书或认证之后才能执行一项特定的任务。因此,法律和政策将不得不——而且已经——和如何确定人工智能系统的能力做斗争。比如说,想象一家研发可以自动摘除阑尾的手术平台的机器人公司,或者一家编写可以提供法律咨询应用的法律公司。今天,在法律方面,我们还不清楚人工智能系统应该通过怎样的医学或法律要求,更不要说它们应该再那里去获得这样的认证了。
     
      劳动力
     
      随着人工智能对人类的替代,一些工作将会消失,一些工作又会被创造。其对工作的净影响目前还是未知数,但劳动力市场不太可能会给所有人都带来均等的好处。对特定类型技能或能力的要求将很有可能大幅下降,从而给具备这些技能的人的就业和工资水平带来极大的影响。尽管人工智能对收入的水平和收入分配带来的最终影响是不可避免的,但它们极大地依赖于政府政策、企业所选择的组织工作的方式、以及个人对学习新技能和寻找新类型的工作和收入机会的选择。发现人工智能的发展导致了他们的工作被改变或被终结的人可能会诉诸立法机关和法院。这也许就是 Littler Mendelson 律师事务所(可能是世界上最大的就业法律公司)有一整个处理机器人和人工智能案子的团队的原因。
     
      税务
     
      联邦、州和地方收入来源可能会受到影响。使用人工智能来完成任务可以更快更精确——并能避开就业税。因此,人工智能可以会越来越多地从工资和收入的投资转向资本支出。根据国家对工资和所得税的依赖,这种转变可能是不稳定的。人工智能还可能表现出与人类不同的“习惯”,造成仍然更少的收入来源。由于自由驾驶汽车的程序使它们不能违法,许多市政当局依赖超速和停车罚款的情况将不得不寻找替代。因此,在人工智能的进步开始起效时,想要平衡预算的政府机构可能会通过立法减缓或改变这项技术的进程。
     
      政治
     
      人工智能已经被政治人物以 Bot 的形式用到了操纵和定向的“robocalls(机器人电话)”与社交媒体平台上,以便影响选举。他们能够借此协调抗议或预测抗议,以及通过更精确地定位谁在何时说了什么来推进更大的透明。因此,思考人工智能的行政和监管法律可以为促进更大的民主参与而进行设计,或者说,如果居心不良的话,也可以减少民主参与。
     
      这个列表并不是详尽的,主要集中于美国的国内政策,而没有涉及很多人工智能很有可能涉足的领域。一个可以得到的教训涉及到人工智能以一种背景明确的方式被管理和人工智能技术在社会的多个行业和领域的更广泛的思考之间没有联系。可以在多种背景中积累专业知识和设置人工智能标准可能很有诱惑力。本研究小组的共识是对广义上“人工智能”的监管尝试可能会被误导,因为目前还不存在对人工智能的明确定义(它不是任何东西),而其中的风险和所要考虑的问题在不同的领域也非常不同。相反,政策制定者应该认识到应该随机应变,不同的时间不同的行业需要对使用人工智能构建的或以某种方式整合了人工智能的软件进行不同的明确的、合适的监管。政府将需要专业知识来审议公共和私人行业开发的标准和技术,以及起草必需的法规。
     
      未来的指导原则
     
      面对人工智能技术将带来的深刻变化,要求“更多”和“更强硬”的监管的压力是不可避免的。对人工智能是什么和不是什么的误解(尤其在这个恐慌易于散布的背景下)可能引发对有益于所有人的技术的反对。那将会是一个悲剧性的错误。扼杀创新或将创新转移到它处的监管方法同样也只会适得其反。
     
      幸运的是,引导当前数字技术的成功监管原则可以给我们带来指导。比如,一项最近公布的多年研究对比了欧洲四个国家和美国的隐私监管,其结果却很反直觉。西班牙和法国这样的有严格的详细法规的国家在企业内部孕育出了一种“合规心态(compliance mentality)”,其影响是抑制创新和强大的隐私保护。
     
      这些公司并不将隐私保护看作是内部责任,也不会拿出专门的员工来促进其业务或制造流程中的隐私保护,也不会参与必需范围之外的隐私倡议或学术研究;这些公司只是将隐私看作是一项要满足规范的行为。他们关注的重点是避免罚款或惩罚,而非主动设计技术和采纳实际技术来保护隐私。
     
      相对地,美国和德国的监管环境是模糊的目标和强硬的透明度要求和有意义的执法的结合,从而在促进公司将隐私看作是他们的责任上做得更加成功。广泛的法律授权鼓励企业发展执行隐私控制的专业人员和流程、参与到外部的利益相关者中并采用他们的做法以实现技术进步。对更大的透明度的要求使民间社会团队和媒体可以变成法庭上和法庭外的公共舆论中的可靠执法者,从而使得隐私问题在公司董事会上更加突出,这又能让他们进一步投资隐私保护。
     
      在人工智能领域也是一样,监管者可以强化涉及内部和外部责任、透明度和专业化的良性循环,而不是定义狭窄的法规。随着人工智能与城市的整合,它将继续挑战对隐私和责任等价值的已有保护。和其它技术一样,人工智能也可以被用于好的或恶意的目的。
     
      这份报告试图同时强调这两方面的可能性。我们急切地需要一场重要的辩论:如何最好地引导人工智能以使之丰富我们的生活和社会,同时还能鼓励这一领域的创新。应该对政策进行评估,看其是否能促进人工智能所带来的益处的发展和平等共享,还是说会将力量和财富集中到少数权贵的手里。而因为我们并不能完美清晰地预测未来的人工智能技术及其所将带来的影响,所以相关政策一定要根据出现的社会难题和线索不断地重新评估。
     
      截至本报告发布时,重要的人工智能相关的进展已经在过去十五年内给北美的城市造成了影响,而未来十五年还将有更大幅度的发展发生。最近的进展很大程度是由于互联网所带来的大型数据集的增长和分析、传感技术的进步和最近的“深度学习”的应用。
     
      未来几年,随着公众在交通和医疗等领域内与人工智能应用的遭遇,它们必须以一种能构建信任和理解的方式引入,同时还要尊重人权和公民权利。在鼓励创新的同时,政策和流程也应该解决得到、隐私和安全方面的影响,而且应该确保人工智能所带来的好处能得到广泛而公正的分配。如果人工智能研究及其应用将会给 2030 年及以后的北美城市生活带来积极的影响,那么这样做就是非常关键的。
     
      附录 I:人工智能简史
     
      本附录主要基于尼尔森的著作撰写而成,该著作从目前流行的角度介绍了数据密集型方法(data intensive methods)和大数据。然而重要的是,这本书并没有证明书中能够解决所有问题。要完整全面地展现该领域的历史,这已经超出了本文的范围。
     
      人工智能领域的研究正式诞生于 1956 年,在 John McCarthy 组织的达特茅斯暑期研究项目的研讨会上提出。当时提出此概念的原因是为了探究机器可以在哪些方面模仿人类智能——这一核心思想一直推动着人工智能领域向前发展。
     
      在与 Marvin Minsky, Nathaniel Rochester, 和 Claude Shannon 共同起草的研讨会提议文件中,McCarthy 因为第一次使用术语“人工智能(artificial intelligence)”而声名大噪。紧接着很多后来者也将自己的著名项目归于人工智能的旗帜之下,这其中包括了 Arthur Samuel, Oliver Selfridge, Ray Solomonoff, Allen Newell, 和 Herbert Simon。
     
      虽然达特茅斯探讨会为这一领域开创了一个有统一身份的专门研究社区,但很多具有人工智能特征的技术想法其实早已存在。在十八世纪,托马斯·贝叶斯(Thomas Bayes)为推理事件的概率提供了一个计算框架。
     
      在十九世纪,乔治·布尔(George Boole)证明逻辑推理——可以追溯到亚里士多德——可以像求解方程组那样被系统地执行。到 20 世纪之交,在实验科学的进步导致了统计学的产生,这使得推断可以严格的从数据中得出。
     
      建造工程并让机器执行指令序列的想法,在一些先锋如查尔斯·巴贝奇(Charles Babbage)的头脑中形成,并于 20 世纪 50 年代成熟,最后导致了第一台电子计算机的问世。可以感知和自主行动的第一代机器人,也是在那个时候建造的。
     
      支撑计算机科学最具影响力的思想来自阿兰·图灵,他提出了通用计算机概念。图灵的经典论文“计算机和智能(Computing Machinery and Intelligence)”,设想建造计算机用于模拟人类智能的可能性,并探讨了许多与现在人工智能有关的话题,包括怎样测试人工智能以及机器怎样自主学习。
     
      虽然这些想法启发了人工智能,图灵却没有将他的想法转化为行动所需的计算资源。在探索人工智能的道路上,几个重点研究领域在 50 年代和 70 年代之间出现了。
     
      Newell 和 Simon 率先进军启发式搜索领域(heuristic search),这是一种在大型组合空间寻求解决办法的有效程序。特别的是,他们将这种思想应用于构建数学定理的证明,方法是——先通过他们的逻辑理论家(Logic Theorist)程序,然后使用普遍问题解决方案(General Problem Solver)。
     
      在计算机视觉的领域,Selfridge 和他的同事们做的早期的字符识别工作,为如面部识别等更复杂的应用奠定了基础。到了六十年代后期,自然语言处理方面的工作也相继展开。斯坦福国际研究院(SRI)建造的,一个叫“Shakey”的有轮机器人,标志着在移动机器人领域探索的开始。
     
      Samuel 的跳棋游戏程序能够通过自我对弈提高下棋水平,这是应用机器学习系统的早期实例之一。一个基于生物神经元的计算模型——Rosenblatt 的感知器(Perceptron)成为人工神经网络领域的基础。Feigenbaum 和其他人主张建立专家系统,即为特定领域——例如化学和医疗诊断领域——量身定制的知识资料库。
     
      早期概念上的进步假定了存在一个符号体系(symbolic system),并可以在此基础上推理和演化。但是到了 80 年代,尽管符号体系在发展不同人工智能领域方面充满前途,它仍然没有值得夸耀的显著实际成就。理论与实践之间的这种差距,部分源于人工智能社区对可直接获取环境信号和数据的基础物理系统的重视不足。
     
      同时,过分强调布尔逻辑(真/假),以及忽视量化不确定性的需要,也是原因之一。在 80 年代中期,由于公众对人工智能的兴趣降低和研究经费的短缺,这个领域被迫承认这些不足之处。Nilsson 将这个时期成为“人工智能的冬天”。
     
      在九十年代,出现了一种被称为“良好的老式人工智能(Good Old- Fashioned AI)”的思想复苏,但是,这种急需的复古思潮作为一个端到端的方法来构建智能化系统是不够的。
     
      相反,智能系统需要从头开始构建,在任何时候都可以解决手头的任务,尽管熟练程度不同。技术进步也使得建立一个由真实世界数据驱动的系统的任务变的可行。更便宜、更可靠的硬件也使得具有传感和驱动的机器人更容易被制造。
     
      此外,互联网具有收集海量数据,以及计算、存储并处理这些数据的能力,使人们能应用统计技术从数据中获得解决方案。正如我们在第二部分详细介绍的那样,这些发展历程使得人工智能能够在过去的二十年中出现,并如今对我们的日常生活产生了深远的影响。
     
      总之,下面列举了人工智能的传统子领域。正如在第二部分描述的那样,他们中的一些因为各种原因比其他的要火热。但是既不能忽视其他方面历史重要性,也不能说他们在未来不可能成为热门领域。
     
      搜索与规划处理目标导向行为的推断。搜索扮演着关键角色,例如,在国际象棋程序中(比如深蓝),决定了如何移动(行为)可以最后获得胜利(目标)。
     
      知识表征与推断的领域需要将信息(往往是大量信息)处理成结构化的形式,便于可靠高效地查询。IBM 的 Waston 项目以一个可以组织、索引、以及获取不同信源信息的有效方案,在 2011 年打败了人类竞争者,赢得了 Jeopardy 挑战赛。
     
      机器学习是一个能使系统通过观察相关数据自动改善其在一个任务中的表现的范式。机器学习在过去十年确实成为了人工智能浪潮中的关键贡献者,从搜索和产品推荐引擎,到语音识别、欺诈检测、图像理解系统以及无数曾经依赖于人类技巧与判断的任务。这些任务的自动化扩大了电子商业这类服务行业的规模。
     
      构建越来越多的智能系统之后,就很自然地需要考虑这样一个问题:这样的系统如何和其他系统互动。多代理系统(Multi-Agent System)领域考虑了这个问题,它在网上市场和运输系统中变得日益重要起来。
     
      从早期开始,人工智能设计并构建出能够融入真实世界的系统。机器人领域研究感知和行动的基础层面——特别是二者的整合,这些研究能使机器人做出有效的动作。自从机器人和其他计算机系统与人类分享真实世界以来,人机交互(Human Robot Interaction)专业也在最近几十年变得重要起来。
     
      机器感知总是在人工智能中扮演核心角色,部分用于开发机器人,但也作为一门完整独立的研究领域。最普遍的感知方式研究是计算机视觉与自然语言处理,它们都有着庞大的、充满生机的社区。
     
      如今人工智能的其他几个焦点领域是互联网发展的结果。社交网络分析研究邻里关系影响个体与社群行为的效果。众包是另一个解决问题的创新技巧,依靠人类(往往成千上万的人)的智能解决困难的计算问题。
     
      即使将人工智能划分成几个子领域,能使深度技术沿着几条不同的方向前进,在任何合理尺度上合成智能还是需要整合许多不同的想法。例如,最近打败人类围棋冠军的 AlphaGo 使用了多种机器学习的算法来训练自己,同时也在下棋的过程使用复杂巧妙的搜索步骤。
    声明:凡资讯来源注明为其他媒体来源的信息,均为转载自其他媒体,并不代表本网站赞同其观点,也不代表本网站对其真实性负责。您若对该文章内容有任何疑问或质疑,请立即与中国机器人网(www.robot-china.com)联系,本网站将迅速给您回应并做处理。
    电话:021-39553798-8007
    [打印文本] []
    
    全部评论(0
    TOP Bookmark