机器人高峰论坛
  • 资讯
  • News
  • 行业资讯
  • IndustryNews
  • Facebook Big Sur 服务器 成人工智能发展利器

    • 行业资讯
    • 时间:2016-07-20
    • 来源: 元器件交易网
    • 编译:XZJ
    • 我要投稿
    • 0
       Facebook的Big Sur 服务器,在设计上运用了高效能的GPU,这也是公司发展人工智能与深度学习技术的利器。
     
      MIT Technology Review实际走访了美国Oregon州的Prineville,Facebook在这个9,000人的小镇存放了数亿用户的数据。在总面积达80万平方英尺的4栋大楼中,安装了一排又一排的电脑。
     
      Facebook近期在Prinville加了一些运算能力更强的 服务器Big Sur,搭配强大的GPU芯片,要让软体可以完成更多的任务,例如进行翻译、或担任虚拟助理等。
     
      这些芯片,正是人工智能科技的基础,促进深度学习的发展。现在的软体可以了解图像和语言,正是因为GPU的效能精进,让软体可以处理更大、更复杂的数据。
     
      GPU可以把照片切割成很细的单位,然后同时分析。在每一台Big Sur 服务器上,都有8个NVIDIA的GPU。Facebook工程师Kevin Lee并未指出目前Facebook有多少个这样的 服务器,不过他表示,目前运作的GPU有数千个。
     
      Lee表示,他们会帮助Facebook的研究人员训练这些软体,让软体效率变得更快。这些 服务器都是有专门设计的硬体,用于人工智能研究和机器学习。
     
      由于GPU极度耗能,所以不能在 服务器上放得太密集,避免造成所谓的“热点”,造成散热困难。在一个7英尺高的机架中,只能装设8台Big Sur 服务器;如果是一般的Facebook 服务器,可以装30台。
     
      除了Prinville的数据中心之外,Facebook在Ashburn与Virginia的数据中心,都有这样的Big Sur 服务器。目前包括微软(Microsoft)、Google和百度等,都仰赖GPU进行深度学习研究。
     
      Facebook已经公开了Big Sur的设计。事实上,Facebook在2011年启动了开放运算平台计划(Open Cloud Project),鼓励各家公司一起设计低价、高效能的数据中心硬件。这项计划也让亚洲硬体公司挤压了传统厂商如惠普(HP)和戴尔(Dell)的空间。
     
      未来的机器学习 服务器,也可能不会以GPU为核心。许多公司都在研究新的芯片设计。
     
      例如Google在5月宣布,已经开始研发自己的芯片设计,名为TPU,专门用来支持语音辨识等功能所需的深度学习软体。NVIDIA以及新创公司Nervana Systems等,也在研发客制化的深度学习芯片。
    声明:凡资讯来源注明为其他媒体来源的信息,均为转载自其他媒体,并不代表本网站赞同其观点,也不代表本网站对其真实性负责。您若对该文章内容有任何疑问或质疑,请立即与中国机器人网(www.robot-china.com)联系,本网站将迅速给您回应并做处理。
    电话:021-39553798-8007
    [打印文本] []
    
    全部评论(0
    TOP Bookmark