• 机器人法律
  • lawTopic
  • 不怕人工智能脱离控制 谷歌终极大招一招搞定

    • 机器人法律
    • 时间:2016-06-08
    • 来源: 环球时报-环球网
    • 编译:lielvwang
    • 我要投稿
    • 0
    自从人工智能这个概念诞生的那一刻起,或许是有太多的电影小说去渲染了,人们非常害怕将来有一天它们会不受控制,造成毁灭性的后果。好在,在人工智能技术上一直领先的谷歌有办法。

    据了解,谷歌目前正在开发一种所谓的人工智能“自毁开关”,来让人类操作者能够关闭那些超级智能系统,无论它们的自我意识已经进化到了何种程度。这种机制被研发团队称为“安全中断”,它将成为 DeepMind 系统的一部分,而且据说已经初步实现了想要的效果。

    关于这一点,谷歌负责开发 DeepMind 的团队已经就此发表了一篇论文,提供了一个基础框架。即使是人工智能已经组建了一支机器人大军,这个自毁开关(或者说是“大红按钮”)也仍然能够起作用。

    论文的作者 Laurent Orseau 和 Stuart Armstrong 写道:“人类操作者有时可能会需要按下大红按钮来阻止人工智能代理执行一系列有害的行动 —— 无论是对环境有害还是对代理本身有害 —— 让代理进入到一个更安全的状态上。”

    “无论是对行为失当可能导致不可逆后果的机器人,或是出于微妙处境上的人工智能,甚至是那些希望采用自己没学过的手段去暂时完成某种任务以获取奖励的存在,安全中断功能都很有用。”研究者说。

    有趣的是,研究者表示这个机制不仅能够防止人工智能系统禁用自毁开关,甚至还能阻止它们产生这样的想法。

    DeepMind 小组所担忧的是,当人工智能变得越来越聪明之后,它们可能会对某个任务完成的方式有了自己的判断,然后采用我们期望之外的手段,并可能会带来伤害。

    自从 AlphaGo 在围棋上击败李世石,所谓“人类最后的堡垒”土崩瓦解后,民间对于人工智能的担忧之声越来越大。尽管谷歌自己都认为 AlphaGo 不过只是弱人工智能,但一时间网络上还是人心惶惶。特别是在谷歌、微软等大厂纷纷将人工智能视为自己接下来的发展方向后,各种非议就更多了。

    事实上,微软不久前也表示终结者式的未来还不是我们需要担心的事情,与其这样不如多关注关注人工智能普及之后可能会造成的失业问题。不过操心的人总是存在的,这也是为什么谷歌会推出这项技术的原因之一。(本文由中国首家互联网法律+O2O第一门户——猎律网整理)

    [打印文本] []
    
    全部评论(0
    TOP Bookmark