三星提出NPU设计新思路 有望大幅降低移动设备的AI计算功耗

2019年07月03日 11:48 次阅读 稿源:cnBeta.COM 条评论

作为当下最热的议题之一,人工智能(AI)总被许多电子产品制造商提起。最为技术领域的一个重大事件,其有望渗透从网络、到家庭、以及移动设备的各个方面。然而受技术的限制,当前大部分商业人工智能应用仍依赖于云端后台,对安全、隐私和性能都有一定的影响。有鉴于此,一些移动设备制造商有意为自家产品配备强大的 NPU 计算单元,以提升 AI 的本地体验,比如三星。

访问:

阿里云6·18主会场:每日10点 爆品限时秒杀

访问购买页面:

SAMSUNG - 三星旗舰店

OnDevice-AI_main1-1280x720.jpg

(题图 via SlashGear

据悉,该公司最新的工作重点,就是通过较低功耗的神经网络处理器(NPU),实现设备上的 AI 处理。与传统深度学习模型相比,其通常需要缩小数据的分组。

三星表示,深度学习的数据分组为 32 位,能够反映传统的计算模型。对于芯片制造商来说,这显然需要堆砌更多的晶体管硬件,反之又加大了移动设备的能源消耗。

对于标配大容量电池的移动设备来说,这似乎不是一个大问题。但要让 AI 普及开来,就必须削减不必要的功耗,以减轻对更重要的应用的影响。

最终,三星得出的结论是,通过简单地将数据分组为 4 位、同时保持数据的准确性,以降低深度学习的硬件和功耗要求。

OnDevice-AI_main2.jpg

这种“量化间隔学习”的方法,有时甚至能够取得比服务器传输更准确的数据结果。根据该公司的数据,其能够晶体管的数量需求减少到 1/40 至 1/120 。

这意味着在手机等移动设备上进行 AI 处理将变得更为可行,而无需将负载转移到远程服务器上。其不仅减少了响应延迟,还降低了被窃听的风险。

遗憾的是,目前三星只宣布了 NPU 背后的技术,而不是 NPU 本身。预计新技术会嵌入到今年晚些时候宣布的下一款 Exynos 芯片中。

对文章打分

三星提出NPU设计新思路 有望大幅降低移动设备的AI计算功耗

6 (55%)
已有 条意见

    最新资讯

    加载中...

    今日最热

    加载中...

    热门评论

      Top 10

      招聘


      Advertisment ad adsense googles cpro.baidu.com
      created by ceallan