
(作者:霍比特小灰)
很多人一直以为,激光雷达路线是高级的,纯视觉是廉价版的FSD。
但我告诉你吧,FSD的纯视觉,才是整套系统里最难、最高级、最底层彻底重构的那一种。
它难,不是因为你省了激光雷达,而是因为它把整车变成了一个会“看”、会“想”、会“动”的神经系统。
那现在问题来了,为什么国内不选纯视觉?
不是不想,是根本做不了。
第一,数据不够。
纯视觉不是装几个摄像头就能跑。
你得有海量的真实场景数据去训练它,它得看过、错过、撞过,然后才能变得聪明。
特斯拉是从2016年开始收数据,FSD V13背后吃掉的是全球几十亿公里的路况、错误、拐点和决策链条。
你看国内这些车企,有几家有这个数据闭环?
就算销量上来了,你有没有用户用智驾?有没有标注团队?有没有端到端迭代的系统?
都没有。你是靠封闭道路做演示,靠规则模拟做决策,
你喂的是假动作,它练出来的永远是假身手。
第二,结构错了。
特斯拉的纯视觉,是把整个系统做成了神经网络结构,从摄像头进来,到车轮动起来,中间不分模块,不分角色,就是一整个“思维系统”。
国内不是,国内是拼装工程:激光雷达看一遍、摄像头看一遍、毫米波看一遍,然后感知模块处理一遍,传给决策模块,再传给控制模块。
每一个环节都有延迟,有误差,有丢包。
这不是AI,这叫部门协作。
所以你看到大车了,你甚至知道该刹车了,但刹不住。你要汇报,你要排队,你要等模块之间“开会”。
特斯拉FSD不需要通知别人,它自己一看到,就能自己动。
这才叫端到端,这才叫一体化的智能系统。
第三,我们得说说,为什么激光雷达就算“看见了”,它也没用。
你想啊,一辆车在高速上开一百多公里每小时,你就算提前两三秒看到前面有静止障碍物,你能不能刹住,不是靠“有没有看到”,是靠看到以后能不能及时判断、及时执行。
而激光雷达的数据非常重,它不像摄像头那种连续视频流,它是脉冲式、点云式、一帧一帧发出来、接收回来、再还原三维模型的。
所以你就会有一个非常致命的过程:
看到 → 转换 → 解析 → 判断 → 下指令 → 动作
每一步都要时间,每一步都要算力,然后你开着车在真实世界里跑,一秒钟就可能是生死。
而特斯拉不是,它从来不追求看得最清楚,它追求的是——反应得最快,决策得最像人,甚至超越人。
它靠的是摄像头流,就是光子信号,直接喂给神经网络,然后整车一体判断,直接执行。
它不用还原三维图,不用等传感器拼图,它是——“看到就是理解,理解就是行动。”
这就是纯视觉的力量,也是FSD和其他车之间的断代差距。
很多人都在追求“我能看多远、我能识别多少种障碍物”,但FSD追求的,是“我能提前预判你要干什么、我要怎么规避、我要怎么做得更稳。”
你可以理解为,很多智驾像是一个看得清的木讷保安,而FSD像是一个直觉敏锐的格斗高手。
激光雷达是告诉你:“前方三十米有一个静止目标,形状如下……”
FSD是告诉你:“前面可能有问题,我现在就准备变道。”
它的厉害,不在于它看得准,
而在于它根本不需要等你“看准”,它已经行动了。
说到底啊,国内这些车企不是不知道神经网络好,也不是不知道端到端是未来,他们不是不想学特斯拉,他们是——根本跑不动。
为什么跑不动?
你先看看FSD的硬件系统。车上用的是特斯拉自己设计的FSD芯片,HW3、HW4,后端5万块英伟达H100+Dojo超级计算集群做训练,马斯克说一句“我们不是在跑模型,我们是在训练一个驾驶的大脑”——这不是夸张。
国内起步本就晚现在高端芯片搞不到,但所有型号的车,必须顶着智驾的招牌往外卖。
更要命的是,硬件上不行,算法还不敢放手做端到端。
怕出错,怕责任,怕事故,最后只能走一条“模块化+规则工程”的路:
摄像头是供应商的,雷达是供应商的,感知模块来自某某初创公司,
决策模块还得开会研究,控制模块还要留一手冗余……
这里面每个公司都有可能给自己留一手,多搞点钱,少担点责。
所以FSD强在哪?
强它背后那一整套能实时理解世界并反应过来的闭环神经网络系统,这套系统必须高度集成,必须是一个完整的闭环,而不是各家拼凑的产物。
这就是为什么FSD面对同样的场景,比如前车突然变道、前面出现静止障碍,它能做到——“人还没反应过来,它已经判断完并开始变道”。
不是因为它有外挂,不是因为它多了传感器,
而是因为它真的拥有了AI那种“毫秒级预判”的能力。
不是它看得远,而是它“知道前车为什么这么动”,然后它不等你开口,它自己就动了。
这,才是真正的智能驾驶。
不是多装几个雷达,不是识别更多种障碍物,而是——你理解世界的方式,已经进化了。
既然特斯拉这条路这么强,为什么国内不学?
为什么这些那么聪明的工程师、企业家,会走错方向?
说白了,不是技术问题,是结构性决策问题。
特斯拉为什么能走纯视觉?因为它敢压五年、敢烧几十亿美金、敢把用户骂声全吃下,
就赌一件事:未来的智能驾驶,一定要靠神经网络去“理解世界”。
这里面,马斯克本人的魄力和胆量毋庸置疑占据了很大的因素,但是他也得有那个文化土壤,这个我在我自己的节目中有聊过,这里不再赘述。
而国内呢?你做决策得看资本周期,看项目评审,看年终交付量,看媒体KPI,你是走一步看一步,你没法all in。
所以他们选了一条看起来最保险的路,能上车、能发布、能卖、能交作业。
但这一套结构,一开始就注定了你只能做到“看见”,却做不到“判断和反应”。
那有没有机会后来追上?也不是没有。
但你要清楚一件事,FSD现在的每一次丝滑变道、每一次毫秒级反应,背后是七年时间、数十亿公里、几千个工程师和一个自研神经网络团队干出来的。
你要追,你得先敢推倒现在这套拼装系统,你得敢说——我们不要激光雷达白名单,我们也要从摄像头开始训练理解世界。
你得敢错、敢慢,最后你才有可能赶上。
但现实是,大多数公司连“敢错”这一步,都走不出去。那就不是代差一年两年,是结构性断代。
所以今天这一期说了这么多,我就想留下最后一句话:
你以为你装了雷达,就能看得见世界;但特斯拉,是在用神经网络理解这个世界。
技术的分水岭,很多时候不在于谁跑得快,而在于谁走对了那条通向未来的路。
你说算法科学能理解,你说激光雷达多余就纯粹是睁眼说瞎话了!是不是用激光雷达只取决于成本
视觉优点是画面刷新快,分辨率高,缺点是对环境光线要求高,穿透性差;激光优点看得远,对环境光线依赖依,缺点是分辨率低,刷新慢,穿透性差;毫米波优点是穿透强,不依赖环境光线,缺点是分辨率低,刷新慢,对静止物体响应差,所以,这三种必须同时使用,才能确保安全。
美国一司机说,开特斯拉使用FSD功能,晴天迎着太阳开,智驾系统会出问题!因为摄像头也怕强光!但有激光雷达和另两种雷达的智驾系统完全不受强光影响!更不要提FSD一到雨天就瞎了!
摄像头也不止一种类型吧,黑白成像、彩色成像、红外成像、深度成像,智驾纯视觉不是只有彩色成像
打开手电筒,你能再看清楚灯珠我就信你了。
有良知的作者!
先不说你把fsd吹的多牛逼,网上那么多的评测为什么表现的那么拉垮?网上各家车主都有晒自驾功能的,为什么几百万特斯拉车主很少发自驾的视频?6万多买的,不值的炫耀一下?不说国内,在国外特斯拉fsd表现也不尽人意,美国那几百起因fsd引发的事故是闹着玩的?
视觉局限性太大,要相互结合才好
懂个球,人开是不是靠视觉?基本常识都丢了,分析个🔨。
不晓得特斯拉自动驾驶的原理。 但,我知道国内L2都分L2,L2.1,L2.5,L2.9,L2.999…… 自家的同一款车都分出三六九等。 宣传的时候,车企和逐流煤体都用最高配。 实际上,特斯拉纯视觉系统,在L2级就懂得珍惜用户跑出来的数据。而砸门的,却在割裂数据,因为同一款车高中低配的传感器都不一样,收集到的数据不一样,不完整的。不好用。 L2级,都没有把自身对环境的感知能力降低的时候与设定的巡航速度匹配,设定的巡航速度可能远高于智驾系统当前环境感知能力下安全行车的速度。 因此,才有了以116公里冲进施工引流变道的路段而没有减速。当然,责任全在美人。 智驾呆萌憨直,有什么好责备呢?憨傻呆萌多可爱啊?还不需要担责。[点赞]
中肯理性客观的评价。
这么牛逼啊[呲牙笑]
所以鱼大嘴只能是骗弱智花粉割韭菜 花粉就帮他宣传说雷达成本高 马斯克舍不得投钱 要控制成本 现在花粉打脸了