• 资讯
  • News
  • 行业资讯
  • IndustryNews
  • 围棋AI为什么这么强 强在哪里?


       败于人工智能的柯洁
     
      前言:AlphaGo在和人类最强棋手柯洁面前获得了3连胜。围棋AI就这样比预期提前10年完胜了人类棋手,AlphaGo无疑对围棋界造成了巨大的影响。人类先前积累的定式在AlphaGo面前已经成为了过去式,并且AlphaGo的进攻也颠覆了围棋的常识。人类棋手该如何面对AI。大桥拓文六段将分析动摇围棋界的AI。
     
      将棋界的藤井聪太四段在出道后获得了29连胜,创造了新纪录。这个新闻跨过了将棋界,这个热潮成为了一个最新的社会现象。纵观日本的围棋·将棋界,1996年羽生善治达成了前无古人的独占七冠,当时在社会上成为了巨大的新闻。当然一个中学生棋士在正式比赛获得了29连胜是一个伟大的记录,使得棋界的新闻成为一个社会现象,对被AI压制的棋手们来说,是一个振奋人心的消息。
     
      AI侵入围棋界是2016年的事情,美国谷歌公司旗下的DeepMind开发的AlphaGo横空出世。在去年春天,击败了韩国顶尖棋手李世石九段之后,在韩国国内据说发生了“AI抑郁症”的现象。
     
      今年5月,升级版的AlphaGo再次出现在人们的视野中,最终以3-0的比分将目前的世界最强棋手,中国的柯洁九段击败。虽然此时棋手们已经做好了心理准备,但是AlphaGo的进步依旧让人非常震惊。
     
      从李世石到柯洁的一年间,人们对AlphaGo的意义也发生了巨大的变化。围棋AI从胜负层面,变成了“为了更好地理解围棋的工具”,棋手们渐渐开始学习AlphaGo的棋。
     
      实际上,柯洁在人机大战之后,已经获得了20连胜,并且AlphaGo的下法在全世界范围内都被研究。据说将棋界的藤井聪太四段也在灵活运用AI的下法。
     
      我们和超过人类棋手水平的AI进行练习,如果举棒球的例子,就好比在击球练习场打时速200公里的球(人类投手最高纪录是169km/h)。虽然这种练习方式可能会使自己的动作变形,不得不说是一个“双刃剑”,但是一旦成功,效果会非常惊人。
     
      谷歌公司旗下的DeepMind将围棋作为了AI的试验场。围棋是一项深奥的游戏,可以说见不到底。但是必定会分出胜负。从这样一个游戏中见证AI的进步,然后由此可以面对AI,对我来说是没有比这个更开心的了。

      拥有直觉的AlphaGo
     
      围棋是在19乘19共361格的棋盘上进行的游戏,其变化数量要比宇宙上任何一个原子数都要大。即便是计算机也会对如此庞大的数量震慑,这就是以前围棋很难被电脑攻破的原因。
     
      不过,有人会认为“电脑可以枚举所有的变化,所以很强”。但是AlphaGo的计算并没有想象中的快。比如美国IBM公司开发的深蓝,在1秒钟可以计算2亿手,但是AlphaGo在1秒钟只能算1万步。
     
      即便如此,AlphaGo为什么还是这么强?
     
      AlphaGo能够在所有围棋AI中脱颖而出,深度学习的引入是最大的因素。而围棋AI从深度学习中学到的东西,就是我们人类的“直觉”和“感觉”。
     
      为了能解释直觉和感觉是何物,我就拿实地和厚势,引入两个围棋的概念进行说明。在对局过程中,就出现下图那样的棋型。
     
      上图解释:被白棋包围的■是白棋的地盘,因为有10个■所以里面是10目,虽然黑棋没有明显的地盘,但是如果可以很好的利用外围,可能会做出比白棋更大的地盘在这个图,■指的是白棋确定的地盘,而■有10个,所以被认为“这里有10目棋,白棋的实地较大”。相反黑棋在目前阶段还没有确定的地盘。
     
      但是,黑棋这堵墙今后可以在右边,下边以及中央的战斗中得到利用,黑棋很有可能做出比白棋更大的地盘。因为黑棋这堵墙今后可以被利用,所以可以评价黑棋“这个厚势不错”,相反如果这堵墙没有被完美利用,就会被评价“这个厚势没有下出应有的棋”。
     
      也就是说,厚势可以说是投资,需要有一定的洞察力,可以去正确评价并且利用厚势。而判断这个厚势今后可以起到什么样的效果,这才是围棋最有意思的地方。
     
      在针对成年人的围棋入门讲座里,经常把实地比喻成现金,厚势比喻成对未来的投资,他们就很容易理解这两个名词了。在很久以前德川家康就把围棋作为自己的爱好,最近几年也有不少经营者也喜欢下围棋,或许从围棋中可以学到风险管理吧。
     
      我们棋手在掌握实地和厚势的平衡中进行对局。然后厚势的未来趋势则根据我们人类从前积累的经验进行直接判断。对棋手来说判断厚势对哪方有利,就像找到下一手棋那样困难。
     
      2016年横空出世的AlphaGo根据自己给自己积累的经验,学会了人类的直觉和感觉并且提高其准确度,才得以战胜顶尖棋手。在当时AlphaGo的棋,对我们人类来说还是可以理解的。
     
      但是,2017年春天,升级后的AlphaGo公布了左右互搏的50盘棋,对围棋界的影响甚大。AlphaGo刚开始还在学习人类的棋谱,后来经过自我对战积累了几千万盘之后,根据自己的经验进行学习。当然让他记住所有的定式估计起不到效果,但是一点一点地汲取信息才是神经网络的作用。
     
      
    只要你关注机器人,你就无法错过睿慕课
    声明:凡资讯来源注明为其他媒体来源的信息,均为转载自其他媒体,并不代表本网站赞同其观点,也不代表本网站对其真实性负责。您若对该文章内容有任何疑问或质疑,请立即与中国机器人网(www.robot-china.com)联系,本网站将迅速给您回应并做处理。
    电话:021-39553798-8007
    [打印文本] [ ]
    
    全部评论(0
    TOP Bookmark