机器人高峰论坛
  • 资讯
  • News
  • 行业资讯
  • IndustryNews
  • 智慧进化箭在弦上 人工智能“洪荒之力”需约束

    • 行业资讯
    • 时间:2016-11-11
    • 来源: 中国信息产业网
    • 编译:zy
    • 我要投稿
    • 1
       人工智能与核武器等影响巨大的技术一样,潜在的威胁和其带来的利益是成正比的,想要妥善利用这股“洪荒之力”,在它们“够聪明”之前,为其建立一套可靠的行为准则是十分必要的。
     
      智慧进化箭在弦上 人工智能“洪荒之力”需约束
     
      人工智能,由我们亲手作出的跳脱天然范畴的人工设计,堪称为人类实现自我突破与变革的一场“逆天革命”与“疯狂冒险”。面对人工智能,与其说我们是对自身的未来抱有美好的憧憬,倒不如说对未来满怀“恐惧着的希望”,人工智能碾压一切的进步性与潜在的失控风险始终拉扯着我们的神经。如何制衡人工智能这把“双刃利剑”,已然成为智慧产业前行面临的重要课题。在人工智能“够聪明”之前,能否为它们制定并能够实际遵循的行为准则,以此构建较完善的监管体系或者是“道德束缚”,是对人类智慧的考验。
     
      智慧进化箭在弦上
     
      曾几何时,人工智能还只是计算机科学的一个分支,出于对人类意识、思维的信息模拟。自1956年达特茅斯会议诞生“人工智能”一词以来,短短60年,商业动机已经让与工业力量相关的人工智能无处不在,互联网、金融、医疗、教育、物流、娱乐、传媒等行业都在加速自身智能化的进程。市场研究公司IDC预测,到2020年,人工智能的市场规模将从今年的80亿美元增长到470亿美元,而对话机器人、智能语音、人工智能医疗等则成了人工智能这一热点中的热点。
     

     
      互联网及物联网技术的不断进步、大数据在数量与内容上的持续性几何级数增长与应用,让人工智能得以不断“深度学习和演化”,在具备学习能力的机器眼中,一切“人、事、物”皆可以被数据化,而算法基于这些数据便可以建立“人、事、物”之间错综复杂的关联关系。在算法可以充分捕获描述人事物的关键数据后,机器便可以复制甚至超越人类的学习能力。
     
      2016年3月15日,谷歌阿尔法围棋(AlphaGo)与李世石的五局人机大战在首尔四季酒店战罢,人类代表韩国棋手李世石九段不敌AlphaGo,代表人类大脑最复杂领域的围棋被机器攻破,进一步论证了人工智能在模拟人脑、基因演化和自我进化的过程中已深度“进阶”。人工智能正在由“弱人工智能”向“超级人工智能”高速进化。
     
      人与机器“相爱相杀”
     
      工业革命将人类从“体力劳动”中解放,当科技的发展进入人工智能领域,人们不可避免地期待着它来解放我们的“脑力劳动”。当前社会,人工智能的发展已经改变了很多人的生活方式。在医药领域,人工智能做到了对病毒爆发的提前模拟,从而提前防控疫情;在教育领域,人工智能代替人们做到了一对一家教般的精准体贴;在旅游领域,人工智能可以实时完成快速调取当前场景信息并实时讲解与翻译……
     
      但是,人类似乎一直纠结于一种矛盾的存在,始终生活在悖论里。我们一边以科技的进步标榜自己的成就,一边焦虑并惧怕着被科技产物所取代甚至毁灭。这种巨大的恐惧和担忧,在文艺工作者的作品中体现得尤其明显:电影《终结者》中邪恶的机器人天网企图审判并灭绝人类;《黑客帝国》中机器人要完全控制并奴役人类;《银翼杀手》中人工智能复制人与人类对抗……虽然我们还不至于亲眼目睹、亲身经历电影桥段中可能出现的危机,但是接下来确实很可能会产生一个群体——无用的人群。因为以往人类社会的几次技术革命在导致失业的同时,也创造了大量新型工作。而人工智能技术的发展,在替代人类劳动的同时,对创造新工作可能贡献有限,这将在一定程度上对就业产生负面影响。
     
      充分吸收了人类几十万年以来的思维进化成果,并在记忆、计算、逻辑推理上占据绝对优势的人工智能,单从硬件上来看,很可能让人类大脑望尘莫及。大脑的内部信息传播速度是每秒120米,相较于电脑的光速已经没有比较的意义。而且,人工智能还可以随意运用更多的硬件以获得更大的内存,不但容量大而且更精准。甚至,我们觉得困难的事情,对于人工智能来说未必有多大的难度系数,而这无疑将导致不少工种的在岗人员被替代。与此同时,不少人围绕人工智能可能产生的社会伦理、道德、战争等都表现出了深深的担忧。在寻求矛盾破解之法的旅程中,人工智能的发展将持久地伴随着人类的自我博弈过程。但不管社会发展最终走向何方,未来人类自身的存在方式甚至人体构成模式都会朝着更加注重高效、实用与低耗、持久的方向演化。
     
      “洪荒之力”需要约束
     
      人工智能领域的研究和应用在很多方面都取得了快速进步,但与之相对应的规范化约束方案却严重滞缓。人工智能与核武器、生化技术、基因技术等其他影响巨大的技术一样,潜在的威胁和其潜在的利益是成正比的,想要妥善利用这股“洪荒之力”,在它们“够聪明”之前,为其建立一套可靠的行为准则是十分必要的。我们要的不仅仅是娴熟的技术以引燃智能爆炸,还需要在更高水平上掌握控制权,以免我们在智能爆炸中“身首异处”。
     
      科幻小说作家艾萨克·阿西莫夫在他的短篇小说《环舞》中提出的“机器人三大法则”,可以说是一种保护性设计和内置的道德原则。时至今日,这对现实中的人工智能发展同样具有指导意义。
     
      目前,全球最大的5家科技公司如谷歌母公司Alphabet、亚马逊、Facebook、IBM和微软都在率先尝试制定关于人工智能机器人的道德标准,并规划成立人工智能行业组织。虽然尚不清楚这一行业组织最终会取得什么样的成果,但其基本的出发点很明确:确保人工智能的研究专注于造福人类,而非不利于人类。
     
      此外,开发人工智能已经是全球性的竞争,这样的竞赛机制也许会让某些害怕落后的团队通过增加冒险行为的方式赶上竞争者,非良性的循环会让这一风险直达最高水平。因此,除了围绕人工智能研究制定规则,行业内也须制定自我约束框架。而在这一过程中,政府有效并适时地参与到为人工智能规划目标、价值观和道德规范的过程中,也将是一种必然行为,因为人工智能已经将技术发展和社会经济政策更紧密地联系在一起。
    声明:凡资讯来源注明为其他媒体来源的信息,均为转载自其他媒体,并不代表本网站赞同其观点,也不代表本网站对其真实性负责。您若对该文章内容有任何疑问或质疑,请立即与中国机器人网(www.robot-china.com)联系,本网站将迅速给您回应并做处理。
    电话:021-39553798-8007
    [打印文本] []
    
    全部评论(0
    TOP Bookmark