麻省理工学院的神经网络知道自己什么时候可以被信任

2020年11月23日 22:00 次阅读 稿源:cnBeta.COM 条评论

深度学习神经网络是一种人工智能系统,正在被用于越来越重要的决策,例如从自动驾驶到诊断医疗条件等各种任务。这种类型的网络擅长识别大型和复杂数据集中的模式,以帮助决策。一个很大的挑战是确定神经网络的判断是否正确。麻省理工学院和哈佛大学的研究人员开发了一种快速的方法,让神经网络在数据中提供预测资深对其答案的信心水平。

访问:

阿里云“爆款特惠”主题活动- 云服务器低至0.55折 96元/年

天猫2021年货节超级红包开抢:每天3次 最高2021元

该项目的研究人员认为,他们的系统可以拯救生命,因为深度学习已经部署在现实世界中。

目前,神经网络的不确定性来自于计算成本往往很高,而且对于瞬间的决策来说速度太慢。研究人员设计的方法被称为 "深度证据回归",加快了这一过程,可能会带来更安全的结果。该项目的研究人员表示,我们需要有能力拥有高性能的模型,并了解何时不能信任模型的结果。

深度学习已经在各种任务中表现出令人印象深刻的性能。在某些情况下,它已经能够超越人类的准确性。这些网络擅长在99%的时间内找到正确的答案,但在生命攸关的情况下,任何错误都是不可接受的。研究人员设计了一种使用神经网络的单次运行来估计不确定性的方法。该网络设计了一个增加的输出产生一个决定和一个新的概率分布捕捉支持其决定的证据。这些分布被称为证据分布,直接捕获模型对其预测的信心。

研究人员使用一个具有挑战性的计算机视觉任务来测试他们的系统。他们训练神经网络分析双目彩色图像,并估计每个像素的距离值,这是一个自主驾驶车辆可能执行的任务,结果显示新网络的性能与之前最先进的模型相当,并增加了估计其不确定性的能力。

ai-certainty-1280x720.jpg

对文章打分

麻省理工学院的神经网络知道自己什么时候可以被信任

2 (22%)
已有 条意见

    最新资讯

    加载中...

    今日最热

    加载中...

    热门评论

      阿里云免费试用频道

      Top 10

      招聘


      Advertisment ad adsense googles cpro.baidu.com
      created by ceallan