• 资讯
  • News
  • 行业资讯
  • IndustryNews
  • AI可怕吗?警惕我们对它犯下七宗罪

       据MIT Technology Review报道,每当想到人工智能(AI)和机器人将会变得多么强大、多么迅速以及将对就业产生怎样的影响时,多数人的心里充满了歇斯底里的狂躁情绪。我(本文作者罗德尼·布鲁克斯(Rodney Brooks) ,著名机器人制造专家、美国国家工程院院士、麻省理工学院(MIT)机器人技术教授)最近在MarketWatch上看到一个故事,宣称机器人将在10到20年内接管过半的人类工作岗位。
    AI可怕吗?警惕我们对它犯下七宗罪
      这种说法非常荒谬。举例来说,这个故事似乎表明,在10到20年间,美国的路面维修工人将从100万人减少到只剩5万人,因为机器人将接管这些工作。那么,现在有多少机器人在从事这类工作呢?答案是零。又有多少个机器人在这个领域实际工作的案例呢?答案依然是零。类似的道理也适用于所有其他行业,许多预测认为这些行业中超过90%的工作将被机器终结。
     
      错误的预测会导致我们对那些不会发生的事情产生恐惧,无论是对就业造成的大规模破坏、奇点,还是与我们价值观截然不同并试图毁灭人类的AI出现。我们需要对这些错误进行抵制,但是人们为什么会犯下这些错误呢?我发现了七个常见的原因:
     
      1.高估和低估
     
      罗伊·阿玛拉(Roy Amara)是帕洛奥图市“未来研究所”的联合创始人,而帕洛奥图是硅谷的智识中心。阿玛拉最出名的地方是他曾提出所谓的阿玛拉定律(Amara’s Law),即我们倾向于高估短期内技术的影响,同时低估长期影响。这句话里包含了很多东西,乐观主义者和悲观主义者会对它做出不同方式的解读。
    AI可怕吗?警惕我们对它犯下七宗罪
      美国全球定位系统(GPS)是展示阿玛拉定律两个方面的绝佳例证。从1978年开始,有24颗卫星(现在包括备件有31颗)被陆续安置在轨道上。全球定位系统的目标是让美国军方提供精确的弹药补给。但在20世纪80年代,这个项目数次险些被搁置。1991年“沙漠风暴”军事行动中,这套系统被首次投入使用。在取得数次成功后,军方接受了它的效用。
     
      如今,全球定位系统的用途是人们当初绝未想到的,这符合阿玛拉定律中所谓的长期影响。在我外出跑步时,我的第2代Apple Watch会使用全球定位系统准确地记录我的位置,可以精确分辨出我沿街跑步的痕迹。但对于早期的全球定位系统工程师来说,接收器的微小尺寸和价格令人有些难以理解。
     
      这项技术在全球范围内同步进行物理实验,并在同步美国电网和保持其运转方面扮演着重要的角色。全球定位系统甚至允许那些真正控制股市的高频交易员避免灾难性的同步误差。我们所有的飞机(无论大小)都使用它来导航,它也被用来跟踪那些被假释的人。全球定位系统还决定了在世界哪些地区应该种植哪类种子,并通过跟踪车队的卡车以及报告司机的表现。
     
      全球定位系统最初只有一个目标,但让它发挥除了最初预期之外的作用,可能是一项艰辛的工作。现在,全球定位系统已经渗透到我们生活的方方面面,如果它突然消失,我们不仅仅会陷入迷路那样简单。我们会感到饥寒交迫,甚至可能死亡。在过去的30年里,我们看到其他技术的发展也呈现出相似的模式。最初人们对新技术抱有巨大的期望,但逐渐陷入失望,可是最后对其取得超出最初预期的效果慢慢产生信心。在计算、基因组测序、太阳能、风能甚至是食品杂货递送等方面都是如此。
     
      在20世纪60年代和80年代,AI的短期影响被一次又一次地高估,我坚信现在也是如此,但它的长期潜力可能被低估了。问题是:这个“长期”到底有多长?接下来的6个错误有助于解释为什么AI的未来会被严重低估。
     
      2.想象的魔法
     
      在我还小的时候,亚瑟·克拉克(Arthur C. Clarke)就与罗伯特·海因莱因(Robert Heinlein)及艾萨克·阿西莫夫(Isaac Asimov)并称为三大科幻小说作家。但克拉克还是个发明家、科学作家以及未来主义者。在1962年至1973年间,他提出了三条格言,后来被称为克拉克三大定律:
     
      第一条,如果一个德高望重的科学家说,某件事情是可能的,那他可能是正确的;但如果他说,某件事情是不可能的,那他也许是错误的;
     
      第二条,要发现某件事情是否成为可能的界限,唯一的途径是跨越这个界限,从不可能到可能中去。?
     
      第三条,任何先进的技术,初看看起来都与魔法无异。?
     
      就我个人而言,我应该提防克拉克第一定律中的第二句话,因为对于AI将以多快的速度崛起,我比其他人的预测为更保守。但现在,我想就克拉克的第三定律进行阐述。想象一下,我们有一台时光机,可以把艾萨克·牛顿(Isaac Newton)从17世纪晚期传送到今天,把他放在一个他熟悉的地方,即剑桥大学的三一学院教堂中。
    AI可怕吗?警惕我们对它犯下七宗罪
      现在给牛顿展示一个“苹果”。从口袋里掏出一部iPhone,打开它,这样屏幕就会发光,上面充满了图标,然后递给他。牛顿曾揭示了白光是由不同颜色的光组成的原理,即通过棱镜将太阳光分解,然后再将其重新组合起来。毫无疑问,如此小的物体却能在教堂的黑暗中产生如此生动的色彩,肯定会让牛顿感到惊讶。现在播放一部有关英国乡村场景的电影,还有一些他听过的教堂音乐。然后给他看一个网页,上面有500多页他的个人注释,他的杰作原理,并教他如何使用缩放手势来放大细节。
     
      牛顿能解释这个小玩意是如何做到这一切的吗?尽管他发明了微积分,并解释了光学和重力现象,但他却无法分辨炼金术与化学。所以,我认为他会感到困惑,甚至无法想出这个设备最开始的轮廓。对于牛顿来说,这和他感兴趣的超自然化身没什么不同,它几乎和魔法一样。记住,牛顿实际上是非常聪明的人。
     
      如果某物存在魔法,我们就很难知道它的局限性。假设我们进一步向牛顿展示iPhone如何在黑暗中照明,如何拍摄照片和电影,如何记录声音,如何将它用作放大镜和镜子。然后我们向他展示,这款设备如何能用令人不可思议的速度来进行算术运算,以及精确到小数点后面多少位。我们指导他操作设备时应采取的详细步骤,并向他展示,他可以在教堂里用它来与世界上任何地方的人进行交谈。
     
      牛顿还能推测出这个设备的其他用途吗?棱镜能够永远工作下去。他是否会推测iPhone也会永远工作下去,而忽略了它需要充电的情况?回想一下,在迈克尔·法拉第(Michael Faraday)诞生之前100年我们就抓住了他,为此他可能缺乏对电的科学理解。如果iPhone能在没有火的情况下成为光源,那么它还能将铅转化为黄金吗?
     
      这是一个我们在畅想未来技术时都会遇到的问题。如果它距离我们今天拥有且能理解的技术足够遥远,那么我们就不会知道它的局限性。如果它和魔法没法被区别开来,人们所说的关于它的一切都无法再被证伪。
     
      这是我经常遇到的一个问题,特别是当我试图与人们讨论我们是否应该害怕通用AI(AGI)时,或者我们是否将建立像真实生物那样运行的有着自主意识的实体时。我被告知,我不知道AGI将会变得多么强大。这不仅仅是一场争论而已。我们不知道它是否应该存在。我希望它能够存在,这一直是我在机器人和AI领域工作的动力。
     
      但是,现代AGI研究无论是在总体上还是支持一个真正存在的独立实体方面做得都不好。至少50年内,AI在推理和常识方面都会遇到同样的问题。我所看到的所有证据都表明,我们对于如何建立AGI还没有真正的想法。它的属性是完全未知的,所以在修辞上它很快就变成了魔法,强大到没有任何界限。然而,宇宙中没有任何东西是没有界限的。
     
      注意关于未来技术的争论,这是令人不可思议的。这样的争论永远不会被驳倒,因为它是基于信仰的争论,而不是基于科学的论证。
     
      3.表现VS能力
     
      我们都从人们如何执行某些特定任务中寻找线索,以此来判断和评估他们如何完成不同的任务。在一个外国城市,当我们向街上的一位陌生人问路时,她满怀信心地回答,并指出看似正确的方向。所以我们认为,当你想坐公交车时,我们也可以向她询问当地的付费系统。
     
      现在假设有人告诉我们,某张特别的照片显示人们正在公园里玩飞盘。我们很自然地想到,这个人应该可以回答这样的问题:飞盘长什么样?飞盘能被人扔出多远?飞盘能吃吗?大概有多少人能同时玩飞盘?三个月大的幼儿会玩飞盘吗?今天的天气适合玩飞盘吗??
    AI可怕吗?警惕我们对它犯下七宗罪
      那些能给图片贴上“人们在公园里玩飞盘”标签的电脑,没有机会回答这些问题。它们只能给更多的图片加标签,而不能回答问题,除此之外它们甚至不知道什么是人,公园通常在露天的,人有年龄区分,天气不仅仅是照片中表示的那么简单等等。但这并不意味着这些系统是无用的,它们对搜索引擎而言有很大价值。
     
      但这就是问题所在:人们听说有些机器人或AI系统已经完成了许多任务。然后,他们将这种表现归纳为一种能力,即执行同样任务的人可能期望的能力。最终,他们将这种泛化应用到机器人或AI系统中。但实际上,现在的机器人和AI系统所能做的事情依然十分有限。人类的归纳推理方式并不适用于它们。
     
      4.行李箱词汇
     
      提出AI概念的计算机科学家马文。明斯基 (Marvin Lee Minsky) 将那些拥有许多不同意义的词称为“行李箱词汇”。“学习”就是个强大的行李箱词汇,它可以指很多不同类型的经验。学习使用筷子是一种不同于学习新歌的体验,学习编写代码是不同于了解城市的体验。
    AI可怕吗?警惕我们对它犯下七宗罪
      当人们听说“机器学习”在某些新领域取得巨大进步时,他们往往倾向于将其作为一种思维模式,即人们学习新知识的方式。然而,机器学习是非常脆弱的,它需要研究人员或工程师进行大量的准备工作,包括专门的编码,特殊的训练数据集以及各个新领域的自定义学习结构。今天的机器学习并不是人类那种像海绵一样的学习,无需专门的设计就能在一个新领域取得快速进步。
     
      同样地,当人们听说计算机可以击败世界象棋冠军(1997年)或者世界上最好的围棋选手(在2016年)时,他们往往认为它就像人类那样“玩”游戏。当然,在现实中,这些程序根本不知道游戏到底是什么,甚至不知道它们在玩什么。它们的适应能力也不强。当人类玩游戏时,规则的微小变化不会让他们放弃,而对于AlphaGo或Deep Blue(深蓝)来说则不是这样。
     
      行李箱词汇误导了人们,让他们以为机器更擅长做好人们能做的事情,这在一定程度上是因为AI研究人员渴望阐述在行李箱概念中取得的进展。这里的重要短语是“实例”,但这个细节很快就被忽略。新闻头条中总会大肆宣扬“行李箱词汇”,而这扭曲了人们对AI的进步以及其有多接近完成更多任务的普遍理解。
     
      5.指数增长
     
      许多人正陷入严重“指数主义”的窘境中。每个人都对摩尔定律有一定的了解,它预示着计算机在类似时钟的日程表上变得越来越好。戈登·摩尔(Gordon Moore)实际上说的是,可以装在微芯片上的部件数量每年都会翻一番。在过去50年里,这种说法是成立的,尽管间隔时间不断延长,但这种模式即将结束。
    AI可怕吗?警惕我们对它犯下七宗罪
      芯片上的组件加倍使得计算机的速度不断增加,这也促使记忆芯片的容量每两年就会翻倍,数码相机变得更好,分辨率更高,液晶显示屏的像素也呈指数级增加。但摩尔定律也有其限制条件,随着芯片组件变得越来越小,其已经逐渐逼近了物理极限。我们不得不另寻它法,量子效应开始占据主导地位,硅基芯片技术也开始流行开来。
     
      当人们进入指数主义的狂欢中时,他们可能会认为这种增长方式会继续持续下去。但实际上,无论是摩尔定律还是其他指数定律都可能会失败,因为从一开始,将它们定义为“指数”定律可能就是错误的。
     
      本世纪初,我负责运行麻省理工学院计算机科学和AI实验室(CSAIL),并需要帮助90多个不同的研究小组筹集资金,为了向我们的资助方证明这些项目的巨大潜力,我用400美元以下iPod内存增长情况为例来加以说明。然后,我推断出几年之后,我们口袋中的iPod内存会达到多少。我们当时预计,400美元iPod将拥有16万GB的内存。然而今天,即使是顶级iPhone(售价超过400美元)内存也只有256GB,不到2007年版iPod的两倍。
     
      事实上,当内存容量达到足以容纳任何音乐库、应用、照片以及视频的程度时,这个特定指数就会突然崩溃。而尤其是当存储能力的增长受到物理限制或失去经济价值的时候,摩尔定律这种指数增长也会难以为继。
     
      同样,由于深度学习取得的成功,促使AI系统的性能也出现了飞跃。许多人似乎认为,这意味着我们将继续看到AI性能在正常基础上成倍增长。不过,深度学习的成功是历经30年才取得的成果,而且它也属于个例。或许将来会有许多类似的个例出现,在AI研究的支持下,许多AI应用的性能突然大幅提升。但遗憾的是,并没有证据表明,它们遵循着某种“定律”。
     
      6.好莱坞式场景
     
      在许多好莱坞科幻电影中,未来世界似乎与今天并没有什么不同,除了某些新的桥段。在电影《Bicentennial Man》里,由萨姆·内尔(Sam Neill)扮演的理查德·马丁(Richard Martin)正坐着吃早餐,旁边站着由罗宾·威廉姆斯(Robin Williams)扮演的人形机器人。当理查德边吃早餐边拿起报纸阅读时,我们会发现,这份报纸仍是印在纸上的,而不是平板电脑,也不是像亚马逊Echo这样的联网设备。
    AI可怕吗?警惕我们对它犯下七宗罪
      事实证明,许多AI研究人员和专家,尤其是那些对AI失去控制并制造杀戮的悲观主义者,都存在同样的想象挑战。他们忽略了这样一个事实:如果我们最终能够制造出如此智能化的设备,那么到那时,世界将会发生巨大的变化,我们不会对这种超级智能的存在感到过分惊讶。随着时间的推移,它们将会不断地进化,而我们的世界将会充斥各种各样的智能体,我们将拥有与这些智能体相处和共存的丰富经验。
     
      早在邪恶的超级智能出现并想要摆脱我们的控制之前,肯定会有一些不那么智能、不那么好战的机器。也就是说,在邪恶智能体之前,将会首先出现脾气暴躁、令人懊恼或者傲慢的机器。我们将在这个过程中改变这个世界,同时调整新技术和新技术本身所处的环境。我并不是说人类不会遇到挑战,而是不会像很多人所想的那样,遭遇到突然、出乎意料的挑战。
     
      7.部署速度
     
      在某些行业,软件版本的更新非常频繁。Facebook等平台,几乎每时每刻都有新功能添加。对于许多新功能来说,只要它们通过了集成测试,哪怕在部署之后发现问题需要撤回,也不会产生什么经济方面的负面影响。这是硅谷和网络软件开发人员已经习惯的一种节奏。这是可行的,因为部署新代码的边际成本几乎接近于零。
     
      然而,部署新硬件的边际成本则要高得多,这在我们的日常生活中就能感受到。我们今天购买的许多汽车都不具备自动驾驶功能,大部分都不是软件驱动的,但它们到2040年可能依然被允许上路,这无疑对无人驾驶汽车的普及提出了内在限制。再比如,如果我们今天建造起新房子,我们可能预期它会支持100年左右。我所住的那幢楼建于1904年,但它并不是我家附近最古老的建筑。
    AI可怕吗?警惕我们对它犯下七宗罪
      所以说,即便有更高科技的替代方案,大量资本投入也能确保物理硬件有相当长的使用周期。举例来说,美国空军仍然在使用B-52轰炸机的变种B-52H轰炸机。这个版本是1961年推出的,距今已经56年。最后一架B-52H轰炸机建造于1962年,已经有55年历史。目前,这些飞机预计将继续飞行至2040年,甚至有人建议将它们的寿命延长到100年。
     
      我经常在世界各地的工厂里看到几十年前的设备。我甚至还看到了运行Windows 3.0的个人电脑,它是微软于1990年发布的。有这种想法的人坚持的观点是:“如果它没有坏,就不要淘汰它。”这些电脑以及它们的软件在过去的20多年里始终在运行相同的应用,并稳定地做着相同的事情。
     
      这些工厂的主要控制机制基于可编程逻辑控制器(PLC)开发而成,包括美国、欧洲、日本、韩国以及中国的新工厂都是如此。PLC是在1968年引入的,以取代机电继电器。但机电继电器的概念到今天仍在沿用,PLC其实可以理解为编程过的24伏机电继电器网络。当然,有些电线已经被以太网电缆所取代,但它们不是开放网络的一部分。相反,它们都是单独的电缆,以点到点的方式运行,依然属于控制流程的物理化身。
     
      当你想要改变世界上大多数工厂的信息流或控制流程时,需要数周时间才能弄明白其中的问题,设计新的流程,然后让技术团队重新配置硬件。这类设备的主要制造商之一最近告诉我,他们的目标是每隔20年进行3次软件升级。理论上来说,工厂中这种陈旧的系统管理方式应该被摈弃,而实践中却根本做不到。我刚看了一份工作清单,即便在今天,特斯拉汽车的加州弗里蒙特工厂还是在招聘大量的PLC技术人员,继续采用机电继电器模拟的方式来生产这些AI增强型电动汽车。
     
      许多AI研究人员和权威人士都认为,世界已经进入数字化,而简单地引入新的AI系统将会立即在供应链、工厂车间以及产品设计上催生变化。然而这种想法似乎还很遥远,到目前为止,几乎所有机器人和AI领域所取得的创新,要真正开始广泛部署,所耗费的时间都要比人们想象的长得多。
    只要你关注机器人,你就无法错过睿慕课
    声明:凡资讯来源注明为其他媒体来源的信息,均为转载自其他媒体,并不代表本网站赞同其观点,也不代表本网站对其真实性负责。您若对该文章内容有任何疑问或质疑,请立即与中国机器人网(www.zgjqrw.com)联系,本网站将迅速给您回应并做处理。
    电话:021-39553798-8007
    [打印文本] [ ]
    
    全部评论(0
    TOP Bookmark