顶部广告

从特斯拉事件分析无人驾驶“视像感知”现状

  • 佚名
  • 来源:玩车网    发表于: 2016-08-04 09:56:49


特斯拉指出:“Autopilot正变得越来越好,但还不完美,因此司机需要保持警惕。然而数据显示,在有司机监督的情况下启用,Autopilot能减少司机的操作负担,相对于纯手动驾驶从统计意义上带来更好的安全性。”

在NHTSA的初步评估中指出,特斯拉此次发生的事故是自动驾驶行驶超过1.3亿英里(合2.08亿公里)以来发生的第一起已知致死车祸;相比于美国机动车平均每行驶9400万英里(合1.5亿公里)发生一起致死车祸而言,自动驾驶看上去似乎是要安全一些。





外界环境的感知环节是自动驾驶汽车首当其冲要解决的问题,特斯拉Autopilot是一自动驾驶辅助系统,尚未达到无人驾驶的程度。特斯拉称,Autopilot是世界目前最为先进的自动驾驶辅助系统,这次外界对于自动驾驶致死事故情况的披露以及对技术的质疑,对特斯拉的未来很重要。


Tesla Model S的感知系统浅析

百度自动驾驶就特斯拉自动驾驶致死案件发表自己观点,据王劲介绍,“特斯拉用的传感器比较少、价格也较为便宜,车上配备的摄像头和毫米波雷达也比较少。诸如百度这样的互联网公司做无人驾驶,使用的是非常昂贵的传感器,包括64线的激光雷达、弹道导弹级别的惯性导航,放置了多个毫米波雷达及多个摄像头,还配备红外摄像头、红外感应器。”

王劲认为,发生事故的特斯拉,其安装的摄像头和毫米波雷达都没办法识别遇到的障碍物,摄像头是认为前方的那辆白色拖车与天空的颜色差不多,因此无法区别;特斯拉的毫米波雷达安装得很低,往上只能看到水平线以上5度的地方,因此发出的信号直接从拖车底下穿过去,没有反射回来。





夜视主动安全系统为无人驾驶保驾护航

近年来,谷歌一直为无人驾驶汽车时代的到来注入心血,现状还处于路试阶段,特斯拉自动驾驶辅助系统,目前也只在美国受法律允许的几个州能被开启使用。对于全自动驾驶的最新尝试来自于宝马。该公司近日宣布,已联合芯片制造商英特尔及Mobileye共同研发全自动无人驾驶技术,加强自动驾驶感知环节的设计,并宣称将于2021年实现无人驾驶车上路。

从机器智能方面看,在GPS定位系统、传感器、摄像头、雷达以及激光等设备支持下,自动驾驶汽车可以收集和处理有关周围环境的海量信息,以便于其能在不断改变的环境中更顺畅地行驶。

但不可否认,目前在自动驾驶领域采用的激光雷达技术存在缺陷,一旦遇到恶劣天气,道路标识有可能被掩盖或者看不清,特别是在夜间。据统计,夜间行车出事率远多于白天行车,这是技术部和道路交通部需要共同攻克的难关。

近年来,传统汽车企业和新兴互联网企业都对无人驾驶技术趋之若鹜。戴姆勒大中华区驾驶辅助系统负责人Bernhard Morys表示,无人驾驶的最大挑战,来自传感器对环境的感知。





那么,如何让汽车像人一样感知和理解驾驶环境并做出正确判断呢?没错,靠的正是传感器。摄像头、毫米波雷达、激光雷达是汽车采集外部数据以实现ADAS和无人驾驶的三种主流传感器。

国内A股上市企业保千里在汽车智能驾驶领域深耕布局已久,依靠多年的数据积累,一直在基于“光学成像+夜视技术+仿生智能算法”为核心技术的汽车夜视主动安全系统上不断探索和突破,该辅助驾驶系统也是无人驾驶最基础、最核心的技术之一。汽车夜视主动安全系统实现了路况预警、远程夜视、眩光屏蔽、雾天透视、雨天透视、行人提示预警、车道偏离预警、激光夜视、防撞预警、行车记录、手机互动互联等十几个功能,可以实现提前预警,能够有效预防交通事故发生以及应用于车联网。保千里自主研发的夜视系统采用主动近红外夜视成像技术,夜间高清可视范围可达150-300米,为驾驶员预留了2-3秒的宝贵应急时间,为智能驾驶以及无人驾驶视像感知环节创造突出价值。





在“2016中国汽车智能驾驶产业高峰论坛”上,保千里展示了智能驾驶系列产品,该系列产品是在公司原有“汽车夜视主动安全系统”基础上全面升级。保千里深入拓展研究方向,攻克多项关键技术难题,增加了ADAS技术、360°球形全景技术、高清夜视、毫米波雷达技术、及毫米波雷达与图像智能算法双系统深度融合技术、车规级智能驾驶平台技术、车内以太网技术等。

在原汽车夜视主动安全系统的十一大功能基础上,本次发布的新产品还能够实现高清夜视主动安全系统、盲区检测(BLIS)、行人提示预警(PCW)、疲劳驾驶预警(BAW)、超车防碰撞预警(FCW)、高级辅助驾驶系统(ADAS)、高级防碰撞预警(FCWS)等多项功能。


结语:自动驾驶感知环节需要依据外在环境因素进行设计实验,专注于无人驾驶视像、雷达涉及范围研究,考虑天气状况,应对道路设施的复杂性。

现状而言,道路状况复杂,基础设施尚需跟上(举个简例,无人车进行车道保持要以路面标识为依据,现在有些城镇路面的划线标识都不清楚)。

等到道路基础设施建设不断趋于完整,无人驾驶“感知环节”技术的不断提升,传感器价格大幅度下降,无人驾驶才将会被推上革命性进程。


据悉,Tesla Model S的感知系统包含了camera、radar、ultrasonic在内的多种传感器。这套看似完备的感知方案,可能是由以下的一个,或者几个“BUG”一起导致了这起悲剧:

(1) 为了更好的控制(“正常”工况下的)误检率和模型复杂度,Tesla使用的前向视觉感知系统(Mobileye提供)只能识别前车尾部,而不支持侧面车识别(注意,当时前方的挂车正处于转向状态,所以是侧面车身对着Tesla),于是导致视觉感知失效;

(2) 一般情况下,即便camera没有捕捉到,但radar也能够探测到前方障碍物的存在,但事故中挂车的底盘相对太高,同时Tesla上radar的安装位置又相对低,这种错位有可能导致radar对挂车的感知失败;

(3) 当然,还有一种可能性,事发时的特殊场景触发了sensor fusion机制中某种隐藏bug。





底部广告