这几年,智能驾驶技术迅速地普及开来,好多车主已然习惯在高速路上松开方向盘并让车辆自行行驶。然而,这项技术果真安全吗?在2023年,某车企所公布的数据表明,其辅助驾驶系统每百万英里出现0.19次碰撞,尽管这个数字比人类驾驶员的平均水平要低,不过事故背后的危险因素值得每一位用户予以警惕。
感知系统的物理局限
智能驾驶所依赖的摄像头,在雨雾天气之时会严重失效,2024年3月,广州有一位特斯拉车主,在暴雨天开启辅助驾驶,系统因为摄像头被雨水遮挡,所以未能识别前方静止的事故车,从而以80公里的时速直接撞上,激光雷达虽说不受光线的影响,然而它的探测距离通常只是150到200米,碰到突然窜出的行人很难及时刹车。
毫米波雷达存在显著的不足之处,它对于金属物体较为敏感,然而却难以分辨路边的广告牌以及真实的车辆,在2023年12月,一辆理想L9于国道上行驶之际,雷达把路边的公交站牌错误地判定为障碍物,致使系统突然紧急刹车,进而造成后车追尾。这些传感器的物理特性致使它们无法完全精准地还原真实的路况。

算法决策的致命盲区
当前的智能驾驶算法尚处于学习时期,碰到不合常规的场景便极易出现差错。在2024年5月的时候,有一位蔚来车主于施工路段遭遇了用作改道标识的锥桶,然而系统却没能识别出来,进而持续直行,一直撞倒了十几个锥桶之后才被车主接手操控。这样的问题是起因于算法训练数据里头缺少充足的施工场景样本。
更让人头疼的是对复杂意图进行预判,人类司机能够凭借眼神、车身姿态来预判行人究竟会不会过马路,然而算法仅仅只能依据运动轨迹做出简单推测,在2023年11月杭州发生的一起事故当中,车辆正以60公里的时速通过路口,右侧忽然出现一个低头看手机的年轻人,系统从识别到刹停需要1.2秒,最终没能避开碰撞。
数据安全的重重隐患
大量位置、行为以及车内影像数据,会被智能汽车每日收集。在2024年2月,某新势力车企被揭露员工于售后系统里随意查看用户行车记录,此涉及上千名车主的隐私画面。倘若这些数据被恶意利用,那么轻则行踪会被泄露,重则车辆功能可能被黑客远程控制。
在云端的数据要是一旦被进行了篡改,那么所产生的后果将会更加严重。在2023年9月的时候,国外的研究人员成功地黑入了某一个品牌的服务器,进而伪造出了多辆车的实时路况信息,这就致使这些车辆在空旷的路段里面无缘无故地进行急刹车。尽管国内的车企都在不断地加强防护,可是联网所带来的风险一直都是存在的,只要存在一次防护失效的情况,就很有可能造成连锁反应。
人机共驾的责任真空
2024年4月,高速上有一辆小鹏汽车在行驶,许多车主误以为开启辅助驾驶就能完全放手,其中该车驾驶员低头玩手机长达四十秒,结果车辆未能避开路面散落的轮胎,直接碾压过去致使爆胎,事后调查发现,系统其实发出过多次脱手报警,可驾驶员根本没有注意到。
这种依赖会致使驾驶技能出现退化,那些经常运用智能驾驶的车主,在碰到突发状况之际的反应速度相较于普通驾驶员会慢0.3到0.5秒。2023年深圳交警所给出的数据表明,在开启辅助驾驶状态下发生的单车事故里,有67%是归因于驾驶员接管不够及时所造成,而这些事故原本能够借助专注驾驶去加以避免。
系统升级的隐形风险
并非每次智能驾驶的OTA升级都是安全的。在2024年1月,某品牌推送了新版软件,之后,大量用户反映,车辆在夜间行驶的时候,会频繁地将路灯误识别成前车尾灯,进而出现无意义的加减速情况。厂家花费了整整两周时间才修复这个bug,在此期间,车主只能关闭辅助驾驶功能,自己开车。
更隐蔽之处在于,硬件跟不上软件的升级步伐。有的2022年款车型,其算力芯片已然没法承载最新的算法模型,更新后却反倒出现反应变迟缓的状况。车主花费几十万购置的智能功能,使用一两年便面临被淘汰的境地,要保持体验得再花几万去升级硬件,如此算下来这笔账并不划算!
法规标准的滞后困境
当下国内尚未存有统一的智能驾驶测试标准,不同车企所宣扬的自动紧急制动性能,其测试速度处于从40至80公里每小时的不同范围,消费者难以进行横向比较,2023年,中保研测试发觉,某款热门车型在50公里的时速状况下能够刹住停下,然而当速度提升到60公里时实则却直接撞上了,这样的差异普通车主根本没有办法预先知晓。
在事故责任认定方面,也存在着模糊不清的地带。2024年3月,武汉有一位车主开启领航辅助之后,发生了追尾的情况。交警认定驾驶员承担全部责任,然而车主坚决声称是系统先出现误判,才致使事故发生。因为行车数据掌握在车企手中,车主想要维权,就需要先花费几万块去做司法鉴定,如此高昂的成本,使得多数人只能选择放弃追责。
瞧了瞧这些潜藏着的危险,你认为自己当下所运用的辅助驾驶功能,真的能够使人全然安心吗,欢迎于评论区去分享你碰到的真实事例,点个赞以便让更多人瞧见这些极易被忽略的安全隐患。