2023年那会儿,小鹏汽车的何小鹏就给大伙坚定地站出来,喊着要搞纯视觉智能驾驶,说这技术的天花板可比激光雷达高多了。他当时还放话,说2027年这种路线之争肯定就消停了。这事儿在业内传开了,大家都觉得他这是在领着行业变天。 你要是晚上开车回家,路上突然遇到个反光的钉子,车要是稳稳绕开了,你肯定会好奇它到底是怎么看到的?是靠激光雷达扫出来的,还是纯视觉算出来的?何小鹏这次出来发声,就是要跟大家聊聊这事。他说纯视觉系统的上限比激光雷达高,还预言到2027年这事儿就有个了断。这可不是他一个人瞎喊,而是他经过了深度的分析才这么说的。 现在智能驾驶这块儿挺热闹,两条道上都有人跑。数据显示2023年国内装车的激光雷达已经超过了50万颗,像蔚来ET7还有理想L9这些车型都特别信赖它,尤其是在下雨天或者大雾天的时候特别稳。另外一边呢,特斯拉那边光是纯视觉车型就有400多万辆,一直在升级FSD;小鹏的XNGP城市导航辅助驾驶也已经覆盖了200多座城市。小鹏这次更是直接把话撂下了,要把所有资源ALL IN到纯视觉上去。 这就好比是登山一样,有人非要背个大包裹走缓坡;有人觉得轻装简行反而能更快登顶。有个深圳车主就说了他的亲身经历:暴雨夜开那辆老款小鹏的时候,系统老是被雨滴晃得频繁刹车;结果后来去试驾了最新的纯视觉测试车时,系统居然能通过连续帧分析出来路上积水下有坑洞。这种细微的变化其实早就已经融入到了我们的日常开车里了。 何小鹏敢这么说,是因为他心里有数。他说纯视觉的好处就是能抓住那些激光雷达容易漏掉的细节,比如挪动的沙井盖、路边的轮胎碎片、甚至是小孩手里飘着的气球。以前大家觉得视觉方案不行,主要是因为“巧妇难为无米之炊”——算力不够用让画面卡顿,帧率低了动态物体就看不清,逻辑也不对就容易搞错。 不过现在不一样了。英伟达那块Orin-X芯片算力很强劲,有254TOPS;小鹏自己弄出来的XNet神经网络用了时序融合技术,把摄像头的数据变成了4D动态感知。工程师团队做过实验:在黄昏逆光的环境里模拟场景时,纯视觉系统能通过光影的变化把静止的障碍物给推出来;而那个时候激光雷达因为金属反光产生的噪点还没处理好呢。 何小鹏特别强调:“等算法能像人脑那样理解‘这里为什么该有个路沿’,硬件的好坏就不是瓶颈了。”确实得承认,激光雷达现在还是挺管用的。有个第三方的测试报告显示:能见度低于50米的浓雾中它能探到摄像头的2.3倍远。这也让大家以前都觉得“传感器越多越安全”,反正往车上装就行了。 但何小鹏把这事儿给点透了:“多装传感器就好比给新手司机配了十双眼睛,脑子跟不上的话反而会让人晕头转向。”多传感器融合其实挺头疼的:毫米波雷达和摄像头之间有时差;下雨天激光雷达点云变成“雪花”也得用复杂的算法过滤掉噪声。有车企工程师就说他们经常为“该信摄像头还是雷达”这种问题争论到半夜。 反观纯视觉这条路就不一样了。把火力集中在单一感知维度上才是关键。小鹏通过跑了百万公里的影子模式数据来训练算法让它看懂世界——这就好比下围棋的高手专注于提升棋力而不是换棋盘一样。 现在的风向也在变特斯拉的FSD V12已经实现了端到端神经网络只看摄像头画面就行了;小鹏的“扶摇”架构把感知和决策模块深度耦合在一起城市NGP接管率还降低了40%。成本方面也很关键单颗激光雷达虽然降到了千元级但纯视觉方案的硬件成本还不到它的五分之一为技术普及铺好了路。 就像有位观察家说的那样:“算力现在像水电一样充足算法上哪怕是微小的进步带来的体验提升都比多装一个传感器强得多。”有意思的是何小鹏预言2027年争议消散并不代表激光雷达就没用了而是说大家在这个问题上会有共识了。“到时候输赢的关键不在于你用什么传感器而是在于你怎么用数据喂养算法。” 不管是哪种路线所有的玩家最终都得回归到技术的本质上:安全、可靠、能大规模普及的智能体验。有个年轻工程师在论坛上留言说:“我以前老是纠结传感器的参数直到看见妈妈坐在副驾驶位上自然放松的笑容——用户要的从来不是技术炫技而是无声的安心。” 回头看看这场争论其实就是智能驾驶成长的一个注脚。纯视觉和激光雷达其实是一路人而不是对手它们相互砥砺着往前走:前者逼着算法突破极限后者倒逼系统设计出冗余感知能力。 当行业不再为“眼睛数量”争个你死我活转而深耕“大脑智慧”的时候那才是技术真正成熟的开始到了2027年钟声敲响的时候也许我们已经忘了路线之争的名字了但我们一定会记得每一次平稳变道每一次精准避让——那些由代码编织起来的安全感才是技术送给我们最温暖的礼物而真正的终点从来不是选择哪条路而是让每条路都通向更从容的未来。