机器人高峰论坛
  • 资讯
  • News
  • 行业资讯
  • IndustryNews
  • 人工智能机器人飞速发展 霍金担忧:威胁超核武

    • 行业资讯
    • 时间:2016-07-04
    • 编译:zhangrunping
    • 我要投稿
    • 0

     
     
       据每日邮报报道,英国物理学家史蒂芬·霍金(Stephen Hawking)日前接受美国王牌脱口秀主持人拉里·金(Larry King)采访,宣称机器人的进化速度可能比人类更快,而它们的终极目标将是不可预测的。
     
      在采访中,霍金表示出对人类未来的担忧。他说:“我并不认为人工智能的进化必然是良性的。一旦机器人达到能够自我进化的关键阶段,我们无法预测它们的目标是否还与人类相同。人工智能可能比人类进化速度更快,我们需要确保人工智能的设计符合道德伦理规范,保障措施到位。”
     
      随着人工智能的进化,机器人很可能独立地选择目标并开枪射击。全自动武器(又称杀人机器人)正从科幻电影变成现实。这并非霍金首次警告机器人存在的潜在危险。去年,霍金表示,随着技术的发展,并学会自我思考和适应环境,人类将面临不确定的未来。
     
      今年年初,霍金也曾表示,成功创造人工智能可能是人类史上最伟大的事件,不幸的是,这也可能成为人类最后的伟大发明。他认为,数字个人助理Siri、Google Now以及Cortana都只是IT军备竞赛的预兆,未来数十年间将更加明显。
     
      此前,他曾直言不讳地表达出对人工智能发展的担忧。霍金表示,邪恶阴险的威胁正在硅谷的技术实验室中酝酿。人工智能可能伪装成有用的数字助理或无人驾驶汽车以获得立足之地,将来它们可能终结人类。
     
      这位科技界泰斗在接受采访时表示,六年前他就曾提出过相同的警告,但并没有引起人们的重视。六年来,世界人口增长了将近10亿。这一数字目前还在不停增长。如果按照现在的速度,到2100年世界人口将超过一百一十亿。
     
      霍金还指出,大规模的环境污染问题主要集中在最近五年。空气污染在过去的五年中最为严重,超过80%的城市居民生活在被污染的空气之中。
     
      当被问及当前世界面临的最大问题是什么时,霍金表示是气候变化。他认为,一旦气候变化达到不可逆的地步,那么全球变暖将无法挽回。
     
      霍金并非唯一担心人工智能的人。特斯拉电动汽车公司首席执行官伊隆·马斯克(Elon Musk)曾经研发人工智能比作“召唤恶魔”,他警告人工智能技术对人类的伤害可能超过核武器。
     
      但霍金也承认人工智能带来的其他好处显而易见,可以帮助消除战争、疾病以及贫困。他认为人类面临的最大威胁是我们自身的弱点,即贪婪和愚蠢。他说:“我们的贪婪和愚蠢并未减少。6年前,我曾警告污染和拥挤,自从那以来这些都变得更加严重。以当前速度持续下去,到2100年,全球人口将达到110亿。在过去5年间,空气污染也在加剧。”
    声明:凡资讯来源注明为其他媒体来源的信息,均为转载自其他媒体,并不代表本网站赞同其观点,也不代表本网站对其真实性负责。您若对该文章内容有任何疑问或质疑,请立即与中国机器人网(www.robot-china.com)联系,本网站将迅速给您回应并做处理。
    电话:021-39553798-8007
    [打印文本] []
    
    全部评论(0
    TOP Bookmark