• 资讯
  • News
  • 行业资讯
  • IndustryNews
  • 霍金就机器人造反发警告:人工智能进化快于人类

    • 行业资讯
    • 时间:2016-06-30
    • 来源: 网易
    • 编译:jinjin
    • 我要投稿
    • 0
       英媒称,斯蒂芬·霍金教授称,一个不祥的威胁正在硅谷技术实验室的深处酝酿。伪装成贴心的数字助手和自动驾驶车辆的人工智能技术正站稳脚跟,有朝一日可能给人类带来灭顶之灾。
     
      英国《每日邮报》网站6月28日报道,这位世界知名的教授发出警告说,机器人可能进化得比人类更快,它们的目标将是不可预测的。
     
      在《拉里·金现场秀》视频访谈节目中,霍金谈到了他对人类未来的担忧。他说:“我不认为人工智能的进步一定会是良性的。”这位物理学家以前也曾直言不讳地说出自己的想法。
     
      霍金是在西班牙加那利群岛接受采访的。他正以贵宾身份参加在那里举行的斯塔穆斯科学节。该科学节的宗旨是让科学变得平易近人。
     
      霍金说:“一旦机器到达能够自我进化的临界阶段,我们就无法预测它们的目标是否会与我们的一致。人工智能有可能比人类进化得快。我们需要确保人工智能的设计符合伦理,要有切实的安全措施。”
     
      这并不是这位物理学教授第一次就机器人造反作乱的危险发出警告。去年他曾表示,随着技术学会为自己着想以及适应环境,人类将面临一个不确定的未来。
     
      他在伦敦举行的一个活动上对英国广播公司说:“全人工智能的出现可能给人类带来灭顶之灾。”这延续了他去年早些时候的说法,当时他说,创造人工智能的成就“将是人类历史上最大的事件,但不幸的是,这同时也可能是最后的成就”。
     
      他声称,像Siri、Google Now及Cortana等个人数字助理功能的出现,只是信息技术“军备竞赛”的征兆。它们将在“今后几十年出现的新事物面前相形见绌”。
     
      而持这种观点的并非霍金一人。去年,埃隆·马斯克曾把人工智能比作“唤醒恶魔”。这位特斯拉汽车公司创始人曾警告说,有朝一日技术会变得比核武器更具危害性。
     
      但霍金在接受英国广播公司采访时特别提到,人工智能的潜在益处也可能是巨大的,拥有消除战争、疾病和贫穷的潜力。
     
      在拉里·金的最新访谈中,霍金称人类面临的最大威胁是我们自身的弱点。2010年接受拉里·金采访时,霍金表示人类的两个最大威胁是贪婪和愚蠢。在最新的采访中,他表示自那时以来情况并没有发生多少改变。
     
      霍金说:“我们的贪婪和愚蠢肯定没有减少。6年前,我就污染和人口过多发出了警告。从那以后,这两个问题变得更糟了。按照目前的速度,到2100年世界人口将达到110亿。在过去5年里,空气污染出现了恶化。”
     
      他说,人类面临的最大问题是“空气污染的加剧……以及二氧化碳水平的不断上升”。
    声明:凡资讯来源注明为其他媒体来源的信息,均为转载自其他媒体,并不代表本网站赞同其观点,也不代表本网站对其真实性负责。您若对该文章内容有任何疑问或质疑,请立即与中国机器人网(www.robot-china.com)联系,本网站将迅速给您回应并做处理。
    电话:021-39553798-8007
    [打印文本] []
    
    全部评论(0
    TOP Bookmark