无人驾驶的泡沫, 就快破了?

  • 2025-06-24 00:52:25
  • 850

一个万亿产业的开端

要说这些年科技圈哪个词最热,无人驾驶肯定排得上号。

但大家有没有觉得奇怪,这阵风刮了这么多年,各路大佬天天在发布会上吹得天花乱坠,可真正能让你在车里躺平的“的士师傅”,咋就一直没见着影呢?

故事要从很久以前说起。

1957年10月4日,苏联人“咣”地一下,把人类第一颗人造卫星“斯普特尼克一号”送上了天。这一下,大洋彼岸的美国人彻底坐不住了,从上到下集体恐慌,很多人觉得自家科技要被苏联全面超越,冷战怕是要输。

巨大的焦虑催生了行动。四个月后,时任总统艾森豪威尔火速批准,成立了一个叫“国防部高等研究计划局”的部门,简称DARPA。

你可以把DARPA理解成一个国家级的“超级风投”,专门砸钱给那些风险极高、八字没一撇,但一旦搞成就不得了的基础科学研究。

这机构在之后大半个世纪里,确实也神了,催生了无数改变世界的玩意儿,比如我们现在离不开的互联网、半导体、GPS全球定位系统,还有F-117那种隐形飞机,影响极其深远。

今天热得发烫的无人驾驶,其实也是DARPA掀起的一波浪潮。

2001年,美军在阿富汗打仗,本以为是降维打击,结果发现完全不是那么回事。给美军造成伤亡最大的,不是什么飞机导弹,而是当地武装用洗衣粉、化肥搓出来的路边土炸弹。手握各种高精尖武器的美军,被这种“屌丝装备”搞得灰头土脸,伤亡惨重。

高层震怒,国会看不下去了,最后硬压下来一个法案:到2015年,军方必须有三分之一的车辆实现无人驾驶,以此来减少人员伤亡。这个推动技术发展的重任,绕了一圈,又落到了DARPA的头上。

可之前军方自己也投钱搞了十几年,只搞出几辆又笨又难用的样车,让人失望透顶。DARPA一看,老路子走不通,得换个玩法。

他们决定另辟蹊径,直接广发英雄帖——悬赏100万美元,举办一场无人驾驶挑战赛(Grand Challenge),把社会上的高手全都吸引过来。

从2004年开始,DARPA赞助了三次公路赛。结果你猜怎么着?

第一届比赛,场面一度非常尴尬,所有参赛队伍全军覆没,没有一支跑完预设路线。成绩最好的卡耐基梅隆大学,也就跑了十几公里,然后就趴窝了。

但奇迹发生在第二年。

第二届比赛,一下子就有5辆赛车在沙漠里硬生生跑完了212公里的全程。到了第三届,比赛场地换到了更复杂的城市环境,照样有团队完成了比赛。

这场挑战赛的鲶鱼效应是惊人的,它把原本锁在大学实验室里的无人驾驶技术,一把推到了公众视野里,并最终催生出一个上万亿的庞大产业。

后来我们熟知的那些行业头部公司,比如谷歌旗下的Waymo、通用的Cruise、Aurora、Zoox等等,很多创始团队都是从那个时候开始,走上了发展的快车道。

从那时起,“让汽车自己开,解放驾驶员”就成了无数科技人员的梦想。

你想想,要是能把漫长又无聊的开车时间,变成工作或者休闲时间,那得释放多大的想象空间。

大佬们更是乐观得不行。2014年10月,马斯克接受采访时就说:“从现在起五六年内,我们就能造出真正的自动化驾驶汽车,那时你就可以直接上车睡觉,醒来时就到目的地了。”

结果呢?2020年被很多人视为一个关键节点,英国《卫报》在2015年预测,到2020年,你将成为一个“永久后座司机”。

从通用、丰田这些传统巨头,到谷歌的Waymo,都曾信誓旦旦地宣布要在2020年推出无人驾驶汽车。

但这一切都没有发生。

站在2024年的今天,无人驾驶看起来似乎已经到了浪潮之巅,技术突破的消息天天上头条,新公司层出不穷,可那台能真正解放你的车,却迟迟没有问世。

那么,拨开这些迷雾,无人驾驶背后的技术本质到底是什么?这项号称要彻底改变人类出行的技术,究竟是已经近在咫尺,还是依然遥不可及?

“眼睛”和“四肢”都有了,但问题没那么简单

咱们今天常听到的L0到L5自动驾驶分级,是美国汽车工程师学会(SAE)定的。理论上讲,只有到了L3级及以上,才能算得上真正的自动驾驶。

L3就是一道分水岭,无论从安全风险还是技术难度来说,都跟L2有天壤之别,这也是现在所有车企都在死磕的一个级别。

而L4和L5的区别,主要在于L4是“特定场景”下的无人驾驶,比如百度的L4级Apollo Go,就只在北京亦庄的特定区域让你体验;而到了L5,那才是神话里的“全场景”完全无人驾驶。

我们理想中的无人车,大概就是坐上去,说个地址,然后你就可以去后排睡觉了,醒来就到了。要实现这个目标,如果拿人来做对比,一辆车应该是什么样的?

在DARPA第二届挑战赛上拿冠军的,是斯坦福大学团队的“Stanley”,一辆大众途锐的改装车。它身上就扛着一套无人驾驶系统的雏形:

感知硬件:5个单线激光雷达(看前方25米内的路),1个彩色摄像头(看35米远的路),2个毫米波雷达(探测前方200米)。这一套“三位一体”的系统,构成了Stanley的“眼睛”。

定位系统:GPS信号接收器,再加一个惯性测量单元(IMU),俩凑一块儿,告诉车“我在哪”、“跑多快”。

大脑:由6台奔腾M电脑组成的计算阵列,外加一个千兆交换机,这就是车辆的“中央处理器”。

虽然以今天的眼光看,近20年前的技术还很粗糙,但那三场挑战赛下来,无人驾驶的技术路径已经非常清晰了,就是:由摄像头、激光雷达、毫米波雷达等传感器,加上线控系统、计算单元构成的硬件,以及由车辆定位、传感器融合、目标识别、路径规划等算法构成的软件。

后来的所有发展,都是在这条技术路径上进行深度和细化的迭代。换句话说,尽管今天各种新技术、新名词满天飞,元器件性能也突飞猛进,但自动驾驶实现的底层思路,其实并没变。

从功能上拆解,一辆无人车必须有三个部分:

* 感知层:无人车的眼睛。

* 决策层:无人车的大脑。

* 执行层:无人车的四肢。

执行层,也就是控制方向、刹车、油门,在传统汽车领域应用很多,技术上没太大难度。媒体上炒得最火的,无疑都集中在感知和决策这两个层面。

先说“眼睛”的问题。

马斯克曾在推特上嘲讽小鹏汽车抄袭特斯拉,何小鹏在微博上强硬回怼。两人隔空打嘴仗,争论的焦点之一,就是到底该用摄像头还是激光雷达当汽车的眼睛?

特立独行的特斯拉,用的是纯视觉方案。马斯克觉得摄像头就够了,成本低,技术也成熟。

但缺点是,摄像头拍下来的是2D图像,要想从一张平面照片里识别出物体,就必须靠强大的算法,通过深度学习神经网络去“脑补”出三维世界。

而激光雷达(LIDAR),是通过发射激光来测距和探测,能直接获取精确的三维信息,看得更清楚。缺点是受恶劣天气影响大,而且头顶上压着一座大山——贵。最早谷歌无人车上装的那个激光雷达,成本高达7.5万美元。

不过,工业化时代,成本问题最后很少会成为制约产业变革的真正问题。除了特斯拉无动于衷,现在其他车企的自动驾驶方案几乎都把激光雷达当成了标配。

随着技术突破和成本下降,华为发布的96线雷达,号称已经把价格压缩到200美元,将来甚至可能到100美元。

说白了,两种方案都不完美,各有优劣。未来的方向一定是传感器融合——小孩子才做选择,大人全都要,这也是绝大多数车企努力的方向。从技术角度看,汽车的“眼睛”不存在原理上的障碍,随着时间推移,成本问题终将解决。

再看“认路”的问题。

人开车靠记路标,无人车靠GPS和高精地图。普通GPS的精度只能到米级,这对无人驾驶来说是远远不够的,弥补手段就是高精地图。

相比我们手机上的导航地图,高精地图必须能反映周围环境的微观特征,比如一棵树、人行道边缘、每一根车道线、各种道路标志。

这背后,是一个存储着海量数据、并且需要实时动态更新的庞大数据库。这就意味着,你要用装着摄像机和激光雷达的测绘车,把目标区域的每个角落都跑一遍,以后还得持续不断地去更新。可想而知,这耗资将高得惊人。

说白了,最大的问题仍然是成本。但只要未来回报可期,资本并不会吝啬投入。无人驾驶的感知模块,并不存在技术上的根本障碍,假以时日,落地实现只是时间问题。

可怪就怪在这里。三场赛事距今已十多年,整个产业链发展迅猛,技术成熟度今非昔比。但为什么,绝大多数车企努力的目标,仍然只是L3?

在这种水平下,车虽然能自己开,但驾驶员还得时刻准备接手。这种半吊子自动驾驶,显然不具备变革一个产业的能力。

无人驾驶初创公司Argo AI的CEO Bryan Salesky就坦承:

“目前这个行业都在研发能够随时随地畅通无阻的无人驾驶汽车,但从现状来看,大家对无人驾驶的期望过高,实际上还有很长一段路要走。”

问题是,这段“很长一段路”,究竟有多长?是像智能手机取代功能机那样倏然而至,还是像可控核聚变一样,永远在“五十年后”?

答案,很可能取决于最后一块拼图——无人驾驶的“大脑”。

真正的天堑:那个只懂计算,不懂人情世故的“大脑”

2016年,谷歌AlphaGo在围棋上击败世界冠军李世石,举世震惊。

AlphaGo的核心原理叫“深度学习”——通过多层神经网络和海量数据训练,让机器像人一样去分析学习。

今天所有火热的无人驾驶技术,根子上都是基于深度学习的人工智能。可以说,人工智能的未来,将决定无人驾驶汽车的未来。

回顾科技史,人工智能几度掀起浪潮,最后都无疾而终。

我们现在经历的这一波,要追溯到2012年的一篇神级论文,它首次将深度卷积神经网络用于图像识别,直接引爆了计算机视觉领域。

而这篇论文的作者之一Ilya Sutskever,后来成了OpenAI的首席科学家,一手打造出了石破天惊的ChatGPT。

但问题来了。人在开车时,会实时做出大量决策和预测,很多是基于经验的直觉,甚至是潜意识的逻辑思考。

目前的深度学习也好,传统方案也罢,都没办法做到人类那种思考、推理、类比、联想的能力。

借助于现在的雷达、摄像头和车载计算机,无人车可以说已经解决了80%的技术问题,它能探测并识别道路上的物体。

但要命的是剩下的20%,这部分才是最难的,难点在于——道路上的行人和其他物体,接下来会做什么?

最大的难题在于:现在的人工智能技术,仍然无法穷尽现实世界中的所有可能性,进而确保100%的安全。

而安全,是汽车行业的一条绝对红线。

有研究人员把这类偶发的、意料之外的事件称为“极限事件”(corner case)。根据自动驾驶初创公司Argo的研究,他们投放在匹兹堡和迈阿密的测试车,每天都会遇到各种各样的意外。

比如,路口明明是绿灯,但同时却有行人横穿马路,这时候无人车系统可能就会陷入逻辑混乱,甚至做出非法行为。

同样棘手的,还有被称为“微观操作”的驾驶细节。比如,前面一辆车开得很慢,像是在找停车位,人类司机会下意识地离远一点,给对方留出倒车空间。但目前的计算机还不具备这种“通人情”的判断力。

再比如,在拥堵的十字路口,人类司机会慢慢向前蹭,通过“眼神交流”这种微妙的社交方式,来判断其他司机的意图,然后果断转弯。无人车显然还不具备这种能力。

人类行为的不可预测性,真实世界近乎无穷无尽的变量,都将无人驾驶的实现,指向了另一个人来久未攻克的领域——通用人工智能。

说白了,基于深度学习的AI,本质上只是在做“输入到输出”的映射,它没有智商,没有情感。

AlphaGo棋下得再厉害,它也不知道自己在下棋。在通用人工智能领域,它可能只相当于一岁到一岁半婴儿的水平。

这种依赖海量数据、蛮力计算和历史记忆的“弱人工智能”,必须要靠大量的人工去进行数据标注,也无法应对真正的突发状况。这种半吊子的无人驾驶,最多只能在高速公路、矿山这种固定场景下用用。

对人类而言,常识是不需思考的。但对目前的人工智能而言,常识反而是最难的。

现在最有可能改变游戏规则的,是特斯拉的FSD。

FSD全称是Full-Self Driving(全自动驾驶)。从今年开始,FSD V12版本已经在北美加速落地。

它的技术路线引入了“端到端神经网络”,简单说,就是不再一行行地给汽车写代码,教它遇到什么情况该怎么办,而是通过对超过一百万辆特斯拉的真实行车数据进行深度学习,让AI像人类一样自己去“悟”该怎么开车。这被很多人视为“改变游戏规则的技术”。

而特斯拉最大的底气,在于它拥有着其他车企望尘莫及的数据积累。FSD的真实路况总里程已达约20亿公里,这个数字远超全球其他公司测试里程的总和。相比之下,百度的Apollo系统运营测试里程刚刚超过1亿公里。

终局:赢家通吃,还是史上最大泡沫?

尤瓦尔·赫拉利在《未来简史》里提到一个观点:想象力是人类和其他动物最大的差异之一。而目前人工智能很大的问题在于,它没有想象力。

从生物学的角度看,人类大脑一般有1000亿个神经元,每个神经元又跟其他上千个神经元连接,整个大脑的连接数量高达100万亿。

而目前即使是最复杂的人工智能神经网络,在连接数量上,跟人脑大概还差了10的6次方的数量级。

仅就原始计算能力而言,今天的计算机不亚于人脑,但这只是蛮力的累加,离真正产生与人类水平相当的智能,还遥不可及。

生物学家估计,地球生命从多细胞进化出视觉感知,花了500万年;从有眼睛进化到智人,又花了5亿年。

而人类只花了50年,就把机器发展到了今天的视觉机器人水平。也许,人工智能要发展到与人类相当的自我意识,也需要花上500年的时间。

在可预见的将来,我们最终能摸到的无人驾驶技术,很可能将停留在L4级别。

那意味着,如果你春节开车回家,开上高速公路后,你可以放开方向盘,安心地看场电影或者睡一觉;但当你驶下高速的时候,对不起,你得立刻接手方向盘。

但危险之处在于,假如L4级别的无人驾驶技术对大多数人而言显得“鸡肋”的话,那么潮水终将退去。

小米决定是否造车时,真正让雷军一度纠结的,也是他推导造车这个命题的核心问题:智能电动汽车行业的终局是什么?

这个问题他问了几乎每一个调研对象,他自己也越来越确信:如果电动车最终“消费电子化”,那就必然会重演PC、智能手机等行业的旧事,出现赢家通吃的局面。

10-20年后,全球TOP5的厂商将拿走80%的市场,而剩下的小品牌则大多在亏损中苦苦挣扎,直到放弃离场——在这个过程中,智能化将成为决定车企生死的关键因素。

正因为这场竞赛事关生死,谁也不敢大意,曾经保守的传统汽车制造商及其背后的供应链,也不得不硬着头皮加入这场疯狂的军备竞赛。

然而,这场竞赛的终局,究竟是人类实现梦寐以求的无人驾驶,还是会演变成科技史上前所未有的最大泡沫?

现在,依然迷雾重重。