• 资讯
  • News
  • 行业资讯
  • IndustryNews
  • 霍金警告人工智能危险性 称其若失控很难被阻止

    • 行业资讯
    • 时间:2016-07-01
    • 来源: 中新网
    • 编译:lx
    • 我要投稿
    • 0
       据外媒报道,著名天体物理学家史蒂芬·霍金认为,人工智能应该在符合伦理道德和安全措施要求的情况下开发,因为脱离人类控制之下的机器很难被阻止住。
     
      美国知名记者拉里·金对霍金进行了采访。霍金在采访中承认,他不认为发展人工智能一定能让人类朝好的方向发展。
     
      霍金表示:“当机器发展到能自己演化的重要阶段之时,它们的目标与人类愿望之间的相符程度就很难预料了。”
     
      他指出,人工智能可以比人类的智慧发展得更快。
     

    资料图:著名天体物理学家霍金。
     
      他说:“有益的人工智能可以与人类共存,并扩大人类的可能性。但失控的人工智能很难被阻止。在开发人工智能时必须保证符合道德伦理与安全措施的要求。”
     
      他认为,有益的人工智能将出现在人类生活的各方面。
     
      霍金说:“想象一下那些可以对科学家想法迅速作出评价、更早地查出癌症、并预测证券市场走势的人工智能!它们将影响到我们的经济,影响到我们的决策,并在整体上影响我们的生活。”
    声明:凡资讯来源注明为其他媒体来源的信息,均为转载自其他媒体,并不代表本网站赞同其观点,也不代表本网站对其真实性负责。您若对该文章内容有任何疑问或质疑,请立即与中国机器人网(www.robot-china.com)联系,本网站将迅速给您回应并做处理。
    电话:021-39553798-8007
    [打印文本] []
    
    全部评论(0
    TOP Bookmark