• 资讯
  • News
  • 行业资讯
  • IndustryNews
  • 人工智能设计应尊重人类社会传统

    • 行业资讯
    • 时间:2016-07-12
    • 来源: 时代周报
    • 编译:lx
    • 我要投稿
    • 0
       “到2045年,人工智能的数量将是当今存在的所有人类智能数量的大约10亿倍。机器人(25.360, -0.24, -0.94%)将通过人工智能进行自我完善,超越人类。”这是引来争议无数的库兹韦尔预言。实际上,在AlphaGo击败李世石后,有关人工智能(AI)的讨论一直热火朝天。除了Google,IBM、亚马逊都在设法建立各自的人工智能服务生态系统。人工智能发展风头正劲。《经济学人》援引数据分析公司 Quid 的研究数据指出,2015年一年,人工智能企业的成本创下85亿美元的纪录,几乎是2010年的四倍。
     
      与此同时,有关人工智能威胁人类的担忧随之而起。将来,机器人是不是会跟人抢饭碗?人工智能会不会反噬人类?人类价值该如何重新定义?在人工智能领域,这些都是当下最热门的伦理话题—虽然好莱坞科幻电影一早描绘过人工智能反控人类的失控场景,但如果假设成真,人类又该如何?包括物理学家史蒂芬·霍金在内的多位科学家都曾联名签署公开信,呼吁开展研究以保障人工智能系统“稳固且有益人类”。特斯拉CEO埃隆·马斯克干脆认为人工智能“可能比核武器还危险”。
     
      斯坦福大学人工智能与伦理学教授杰瑞·卡普兰( Jerry Kaplan)将自己对人工智能的思考,写进了《人工智能时代》(Humans Need Not Apply:A Guide to Wealth and Work in the Age of Artificial Intelligence)一书。2015年,该书被《经济学人》评选为年度图书。
     
      卡普兰身上贴的标签不少:计算机科学家、未来学家……他还是硅谷的老牌创业者,一手创立了包括Go公司、Onsale在内的多家公司,并设计了世界上第一台笔触式计算机,预示了iPhone 和 iPad 的出现。现在,从企业转身进入斯坦福大学人工智能实验室的卡普兰,更关注人工智能的未来。
     
      在书中,卡普兰重点描述了智能时代给人类社会带来的两大“潜在灾难性冲击”:持续性失业与不断加剧的贫富差距。很多科学家都有过类似担忧。牛津大学的机器学习专家Michael Osborne以及经济学家Carl Benedikt Frey都曾预测,美国已有47%的工作岗位正处于自动化的高风险下,机器正在很大程度上替代人类的工作—尽管技术也在同时创造新的工作岗位。卡普兰认为,真正的威胁,并不在于人类正进入“一个缺乏工作机会的时代”,而是“劳动力拥有的技能不能够匹配雇主需求”。在这个问题的基础上,卡普兰深入思考并讨论了职业教育改革问题。
     
      在卡普兰看来,库兹韦尔预言实实在在是一则“科幻小说”。人工智能就像大多数自动化机器一样,“没有什么好害怕的”。
     
      富人优先
     
      时代周报:有关商业技巧的书在现在往往比伦理类的书籍卖得更好。你长期从事人工智能的商业化,却为什么在斯坦福大学讲授人工智能道德伦理的课程,并写下这本书?
     
      卡普兰:硅谷的人们倾向于相信我们正在制造只会给这个世界带来好处的、有价值的技术。这并非事实。每个人都明白人工智能的潜在益处,但没有几个人清楚它也有黑暗的一面。我一开始在斯坦福大学教课,讲授人工智能的社会与经济影响,后来我决定将课程部分内容写成书。
     
      时代周报:你在书中认为人工智能将令社会贫富差距加大,这个观点是有争议的,有人认为人工智能的相关技术将带来平等。
     
      时代周报:技术这个概念太广泛了,就人工智能而言,它是自动化的形式。一方面它们可能对社会贡献很多益处,但另一方面,就如卡尔·马克思所解释的那样,自动化是资本对劳动力的替代。因此,拥有金钱的人们能够掌握自动化技术并以此获利,而工人们不行。这就增加了社会的不平等。事实上,在包括美国在内的多数国家里,这已经成了一个严峻的问题。这也是发生英国公投“脱欧”的一个主要理由。
     
      时代周报:这本书总结了因为技术而带来的工作市场变化。你认为机器人将会取代很多人类的工作岗位,但技术同时也为人类创造了更多的新型工作岗位?
     
      卡普兰:自动化的历史已经很清楚了:机器在旧的工作岗位上替代工人,但最终新财富将会创造新的工作岗位。问题在于,这个过程需要一段时间,而新创造的工作岗位通常需要新的技能,那些被替代的工人往往不具备这些技能。我不认为我们将进入一个缺乏工作机会的时代,我们正在进入的,是一个需要衡量劳动力拥有的技能不能够匹配雇主需求的时代。
     
      时代周报:在你看来,未来的哪些工作不容易被机器所取代?
     
      卡普兰:那些要求人类沟通的工作,是其中一类不能够被自动化所取代的工作类型。没有人会向酒吧的机器人调酒师倾诉烦恼;当你去购买结婚礼服,总是会更喜欢人类销售员的意见而不是机器。另一类牢靠的工作,是那些涉及展示人类技巧的工作。除了因为新奇,观摩机器人赛车不会让人感觉有趣。此外,还有一些要求在变化环境中拥有多种问题解决技巧的工作。比如说,我不认为护理工作会被自动化,技术在这个工种里只能起辅助作用。
     
      “没什么好害怕的”
     
      时代周报:你在书中介绍了一些方法来解决未来人工智能可能带来的社会问题,但技术的发展是无限的,通过人类制定的规定制度能够有效防止人工智能带来的社会问题吗?
     
      卡普兰:这是人类的问题,将有人类的解决方法。如果我们认为财富不均对社会有害,那么就去解决这个问题。
     
      时代周报:美国未来学家、奇点大学校长雷·库兹韦尔(Ray Kurzweil)预言,到了2045年,人类就可将整个脑的思想记忆上载到计算机,变身“数码不死身”,到2100年更可将身体由生物换成全人工制造。你怎么看待这个预言?
     
      卡普兰:雷·库兹韦尔的预言在我看来就是科幻小说。 也许有一天它会发生,但离我们太远了,目前也没有严谨的科学来支撑这一说法。这就好像说外星人将在2045年登陆地球,但背后并没有证据或者可靠的理由让人相信这会发生。现在我们几乎完全不知道人类的大脑是怎么运作的,也不知道连接人们的思想会产生什么影响。机器不是人类,没有具有说服性的证据表明这一切改变将在我们的有生之年发生。
     
      时代周报:Google的Deep Mind团队和牛津大学近期发表过一篇论文“Safely Interruptible Agents”,提及正在创建能够防止人工智能程序脱离人类控制的机制。研究者坦承“不大可能总是让人工智能按人类的理想实施行为”,很多著名的哲学家和科技创业者都担心人工智能最终威胁人类自身。这种害怕有必要吗?这种担心是不是被过度渲染了?
     
      卡普兰:没有什么好害怕的。人类制造机器以来,一直会出现一些意想不到的问题,有时候机器甚至会杀死人类。在美国,大约每天都有10个人死于工业事故,其中的大部分与机器或机器人有关,但这都只是工程设计的问题。在汽车方面,我们一直都在解决这类问题,比如说设计安全条款和测试,以此保证一个合理的安全数量。因此,我们也不得不在人工智能项目中包含保险机制,就像我们对待所有其他的机器那样—这也正是Google论文所试图解决的。尽管如此,对于“人工智能系统可能因某种原因变得太聪明,以至于他们能够‘避开’安全控制”的观点,我还是不同意。我认为机器人没有独立的欲望和需求,真正需要解决的问题是,我们该怎样设计,才能让它们尊重人类社会传统。
     
      中美AI不存在差距
     
      时代周报:自从Google研发的人工智能AlphaGo击败专业的围棋冠军,更多普通人开始讨论和关注人工智能的发展。在你们业内,AlphaGo的胜利对人工智能来说到底意味着什么?
     
      卡普兰:Google的AlphaGo胜利,展示了人类在探索人工智能新途径方面的一些巨大胜利。但正如1997年IBM的“深蓝”程序打败当时的国际象棋世界冠军 Gary Kasparov一样,它几乎只能表明我们现在制造了一台能够玩这个(或相似)游戏的机器,实际上,AlphaGo的胜利不具备意义重大的实际价值。
     
      在我看来,这两场胜利,更像马与汽车之间的比赛。没有人会惊讶汽车会取胜。但人们绝不会因为机器能够做同样的事情,就再也不玩围棋。如果因为有了能够唱歌、跳舞的机器人,人类就不再唱歌跳舞的话,这就太可笑了。总之,这场胜利对机器来说很有意义,但对人来说则没什么影响。
     
      时代周报:目前,中美在人工智能研究领域,技术差距和商业应用的差距有多大?
     
      卡普兰:不久前我在中国待了一个星期,我不认为中美之间存在差距。中国有很多有才华、受过高等教育的人。再说,我也没有看见有什么先进的技术是美国使用得很广泛而中国没有的。有句英语俚语叫“篱笆那边的草看起来更绿”,我能保证,美国的草并没有比中国的更绿。实际上,我希望美国能尽快出现一个跟微信一样好的项目。
    声明:凡资讯来源注明为其他媒体来源的信息,均为转载自其他媒体,并不代表本网站赞同其观点,也不代表本网站对其真实性负责。您若对该文章内容有任何疑问或质疑,请立即与中国机器人网(www.robot-china.com)联系,本网站将迅速给您回应并做处理。
    电话:021-39553798-8007
    [打印文本] []
    
    全部评论(0
    TOP Bookmark