谷歌与牛津大学研究人员试图阻止“审判日”的到来

2016年06月04日 14:09 次阅读 稿源:cnBeta.COM 条评论

当人工智能发展到一定程度时,或许将改变我们所处的世界,甚至有人认为“终结者”式的杀人机器人或可能灭绝人类。 近日谷歌及牛津大学人类未来研究所(Future of Humanity Institute)的研究人员发表了一篇题为“Safely Interruptible Agents” 论文,提出通过建立一个可以使人工算法丧失能力或暂停工作的逻辑框架。

http://static.cnbetacdn.com/article/2016/0604/4e0293080317024.jpg

这篇论文详细介绍了如何确保人工智能不会学习或寻求抵制由人类控制的这种中断行为。研究人员在论文中介绍如何使用上述技术及不同指令来确保AI无法找到阻止这个外部中断的方法。

近日,世界上很多著名的哲学家和高科技创业者都担心人工智能最终会摆脱人类控制,甚至威胁到人类自身。特斯拉及Space X CEO 马斯克昨天在当谈到人工智能时表示,人类极有可能沦为机器人的“宠物”。马斯克近日也向未来生命研究所(Future of Life Institute)捐赠1100万美元,用于“限制智能化”的研究。

活动入口:

天翼云大促领万元红包 爆款云主机仅需79元/年

阿里云12·12年末采购节 云大使推广活动

对文章打分

谷歌与牛津大学研究人员试图阻止“审判日”的到来

1 (50%)
已有 条意见

    最新资讯

    加载中...

    今日最热

    加载中...

    热门评论

      招聘


      Advertisment ad adsense googles cpro.baidu.com
      created by ceallan