安全研究人员演示如何通过入侵广告牌来误导特斯拉Autopilot发生碰撞

2020年10月16日 09:24 次阅读 稿源:cnBeta.COM 条评论

随着技术的进步,车载驾驶辅助系统的安全性得到了不断的提升,但其可靠性仍未能让我们感到满意。安全研究人员已经证明,通过被劫持的互联网广告牌,就可诱导特斯拉电动汽车的 Autopilot 等系统采取突然的制动、驻车或转弯等操作。《连线》杂志报道称,位于以色列内盖夫的本·古里安大学的研究人员,一直在对所谓的“鬼影”图像展开试验。

访问:

阿里云推出高校特惠专场:0元体验入门云计算 快速部署创业项目

资料图(来自:Tesla)

具体说来是,这些图像可能让自动驾驶 / 驾驶辅助系统感到困惑,其中涉及到营造瞬间的光线投射、让系统“看到”不存在的物体(比如停车指示牌)。

这项技术的早期示例,是将路标和人的影像投射到道路上。即便只显示几毫秒的时间,就足以误导高级驾驶辅助系统(ADAS)。

Securing Advanced Driver-Assistance Systems(via

虽然本文介绍的这项新研究基于类似的方法,但演示中并未使用投影的图像,而是利用了联网的数字广告牌。

在侵入某款数字广告板之后,攻击者可注入一些可能导致汽车发生碰撞的内容,但不会留下明显的痕迹(司机只会感到一头雾水)。

Phantom Attacks on Driving Assistance Systems(via

据悉,研究人员针对特斯拉 Autopilot 和 MobileEye 630 系统开展过测试,前者会被出现仅 0.42 秒的鬼影图像所欺骗、后者则是 1/8 秒。

有关这项研究的详情,将在今年 11 月的 ACM 计算机和通信安全会议上作介绍。让人担忧的是,这类数字广告牌鬼影攻击可能波及更多车型和导致大范围的误伤。

访问:

Verisign - .com域名的守护者 为品牌代言

对文章打分

安全研究人员演示如何通过入侵广告牌来误导特斯拉Autopilot发生碰撞

1 (50%)
已有 条意见

    最新资讯

    加载中...

    今日最热

    加载中...

    热门评论

      Top 10

      招聘


      Advertisment ad adsense googles cpro.baidu.com
      created by ceallan