小米 SU7 车祸,刷新公众的智驾认知。
高速路提醒在施工路段关闭智能驾驶,“相亲相爱一家人”群传来长辈的语音:智驾用不得。
一起车祸让智驾露出原形,原来智驾并不靠谱,与车企营销中的零接管、放心用大相径庭。
深入剖析事故车小米 SU7 标准版,采用 11颗摄像头 、1 个毫米波雷达和 12 个超声波雷达,比 高配MAX 版少了激光雷达,属于纯视觉方案。
更大的差异是智驾芯片算力,小米 SU7 标准版只有 84TOPS,但 Pro 版开始,就用上 508TOPS的智驾芯片。
纯视觉被认为是智驾的激进方案,而低算力加大了技术难度。纯视觉+低算力,等于是难上加难。
令人担心的是,智驾普及战中,低算力纯视觉智驾依靠成本优势,被众多车企当做主流方案,成为标配。
既然智驾普及挡不住,车企能否先给智驾能力描个边儿?
纯视觉+低算力≈5 岁小孩
纯视觉智驾,算力不同体验不同。
选择三款车型做个对比,都是纯视觉智驾,但芯片算力不同:84 TOPS vs 500 TOPS,实际表现有区别。
据官方公布数据,碰撞发生前 2 秒,车辆才提醒用户接管车辆。
有博主在类似路况下测试特斯拉车型,顺利通过。软件技术差异之外,智驾芯片算力的大小也是决定性因素。智驾就像一个发育中的小孩,低算力5 岁,高算力10 岁。
智驾功能安算力需求做高低排列,自动泊车<高速NOA<城区NOA。
低算力方案目前只能实现高速 NOA 功能,理论上支持城市 NOA ,实际体验效果较差,停留在商业宣传中。
低算力纯视觉的高速 NOA ,各家车企虽然宣布放弃高精地图,采用导航地图+高精地图+视觉感知的“轻”/“简”图技术,但实际脱离高精地图与固定规则寸步难行。
高算力智驾的核心技术在于 AI 能力,业界的商业技术名词很多,端到端,一段式端到端,VLM、VLA 、大模型等等。万变不离其宗,高算力纯视觉方案,是将各种实际道路行驶视频片段,在数据中心进行学习训练,再将学习后的驾驶模型用在车上。
车端算力的大小,直接决定车端运行模型的能力,84TOPS vs 500TOPS 大约是 5 倍差距,后者的大模型运行起来尚且磕磕绊绊,而前者甚至都没给大模型上车的机会。
吹牛可以没边儿
智驾必须有边儿
智驾营销100% 的报喜不报忧,看看常见的智驾营销话术:
xxx 公里零接管;
某一次的紧急避让操作当做普遍能力宣传;
同一款车,高配车高算力,低配车低算力,宣传时模糊高低配差异;
夸大AEB 功能,刻意宣传AEB功能极速,而对可识别物体密而不宣。
只谈智驾会做什么,而不谈智驾能做好什么,智驾的能力边界是什么,是车企智驾营销的常态。
久而久之,这些宣传对用户的影响由浅入深,令用户迷失在智驾宣传之中,忽略了宣传页底部黑底灰字,根本看不清的“免责声明”。
在飞机制造领域,飞机交付用户前,要测试飞行包线,包括能飞多快,飞多高,飞多远,以及在各种极限工况下机身的安全性能。
在智驾领域,也应该引入类似的边界理念,车企在交付智驾功能前,测试好智驾的安全边界,让车主可以放心用智驾。
人性禁不住考验,车企请自律
回到车祸本身,低算力纯视觉智驾的安全边界,能否应对夜间修路高速工况,厂家从未给出明确客观的表述。
低算力纯视觉智驾方案,核心优势是成本控制,再配合使用高精地图,的确可以实现良好气象条件,良好路况和中低车流量下的高速 NOA 功能,是个不错的舒适性功能。
原本开启条件苛刻的高速 NOA 功能,没有告知用户使用范围,被用户自行拓展到夜间可用,修路时可用,大车流量时可用,甚至下雨下雪时可用,安全边界完全失守。
一旦真实世界的某个条件恶化,比如遇到黑夜中的修路路况,驾驶员无法抵制使用智驾的诱惑,就可能引发致命事故。
智驾普及战中,如果车企不能自律,给智驾描好边儿,严格智驾使用条件,后果必将是一场灾难。