我觉得当下智驾最大的问题就是:过度使用。
当前的所有智驾都是提供的辅助驾照能力。
目前,汽车生产企业对于智能驾驶的宣传比较谨慎的,这背后有技术和法规的原因。
因为到L3的时候其实是人机共驾、半车半人,车企如果出了事故是要担负责任的,但是目前来,它们从硬件的配置和系统可靠性来说,他们不敢去干这个事,所以官方说的都是L2、L2.5、L2.95X。
现阶段:就是驾驶辅助!

辅助!顾名思义,就是需要车主自己开车,智驾只是降低驾驶疲劳,提高驾驶安全性。说到底,是要车主自己开车的。
并且为了保证车主自己开车,辅助驾驶做了特有的限制!但是,在实际使用中,还是会遇到下面这种情况:水瓶驾驶!

理想汽车的辅助驾驶系统必须系安全带才可以使用。并且,在车辆行驶过程中双手不要离开方向盘,理想方向盘带有握力感应传感器,会通过视觉和听觉报警提醒驾驶员,如果超过一段时间驾驶员不接管方向盘,系统将会退出并在本次驾驶中禁止使用辅助驾驶功能。

面对这种情况,理想汽车也是发微博回应:称坚决杜绝此类不文明的驾驶行为,并表示理想汽车现阶段仍然是辅助驾驶,不是自动驾驶。车辆在鬼探头或加塞场景下,系统处理能力不如人类,在一些施工场景系统甚至无法识别障碍物,所以驾驶员依旧是车辆的第一负责人,需要保持手扶方向盘,随时准备接管。
依据当前的道路安全法:驾驶员在车辆行驶中不得双手离开方向盘。这种双手离开方向盘的行为,显然是违法的!害人害己!
即便态度上是谨慎的,但是任何系统都会有故障的。不可否认,智能驾驶也会出现故障。
“我们收到的月度投诉大概三、四十条,趋势是非常明显的不断增加。主要的问题就是自动驾驶阶段,无法根据前车的距离和紧急情况实现预警和自动刹车,转向上就是在变道的过程当中过于敏感或者过于迟滞,出现事故和故障。”

另外,智能驾驶系统背后有大量传感器和复杂算法,传感器故障、误识别或者策略不合理,都可能导致系统失效,仅仅用于感知的摄像头就很难100%有效。比如,正向的逆光,背光、没有光线,还有一种是暗光,比如说黑天的时候采集不到信号,还有一种是镜面,比如说公交车的镜面是反光的,这时候你采集到的信号怎么判断是车还是镜子?

早在2016年,美国弗罗里达州一辆特斯拉撞到正在过马路的白色卡车,司机当场死亡。这个车把白色的车厢当成了天空的白云,然后又是天光照射,它、就以为不是障碍物,然后撞上去了。
其实,由于特斯拉采用视觉方案,在自动辅助驾驶状态下,特斯拉对白色的“加塞儿”车辆和白色的箱式车确实是识别不稳定,有时候它能识别,有时候没有减速迹象,所以开车都需要眼睛认真地盯着路面。
评论·0