旧金山“黑夜迷途”:一次停电暴露自动驾驶单车智能的当下困境
山自古有神秘的气息,绵延不绝的山脉,像是一条绵长的巨龙,沉默地盘踞着,守护着这个古老的土地。
2025年12月20日,旧金山遭遇了一场罕见的大规模停电事件。太平洋煤气与电力公司(PG&E)的一座变电站突然发生火灾,导致约12.5万用户断电,影响了西区、里士满、海特-阿什伯里和中国城等近三分之一区域的市民生活。交通信号灯集体熄灭,Muni公交服务因此停运。市长丹尼尔·卢瑞紧急呼吁市民非必要不出行,以确保市民的安全。

PG&E停电图2025年12月20日下午4:50
然而,在这场城市应急事件中,最引人注目的并非人类司机的混乱应对,而是Waymo自动驾驶车队的集体“宕机”,这场意外的事件让人感到困惑和疑惑。
社交媒体上,视频疯传:多辆白色Waymo车辆在漆黑潮湿的十字路口一动不动,红色尾灯在夜色中闪烁,后方排起长龙,人类司机或鸣笛催促,或无奈绕行。有用户调侃:“停电摧毁了Waymos RIP。”更有观察者尖锐指出:“它们似乎根本没有接受过停电训练的教育。”

停电期间,一辆Waymo汽车被困在路上。
次日,Waymo官方承认已暂停旧金山服务,并解释称:“由于大范围停电,车辆比平时停留更长时间,以确保在停电情况下交叉路口的状态能够被正确确认。”然而,这一轻描淡写的回应,无法掩盖一个更深层的技术危机:当外部数字基础设施崩塌,当前主流自动驾驶系统为何如此脆弱?
不是“故障”,而是系统性脆弱链的暴露。
从技术角度看,Waymo车辆在停电夜的停滞,并非单一模块失效,而是一条典型的“脆弱性传导链”,该链条中每个节点的失效都可能会引发下一个节点的失效,从而导致整体系统的崩溃。
L4级自动驾驶系统依靠多种传感器的融合,包括摄像头、激光雷达和毫米波雷达等。在正常的交通环境中,交通信号灯提供了结构化、高确定性的规则输入——红灯停,绿灯行。这种强语义信号对决策逻辑的简化具有极大意义。
然而,当停电后,红绿灯物理消失,激光雷达点云中不再具有对应的结构,摄像头在低照度下识别能力 suddenlly plummeted。更加关键的是,系统失去了“规则锚点”,被迫将决策权重转移至对无序人类行为的预测——而这正是当前AI的明显短板。
美国交规规定,信号灯失效时,驾驶员应视为“所有方向停车后依次通行”,然而,这一规则的执行需要驾驶员精准判断“谁先停稳”“谁有通行意图”,并与其他可能不守规的人类司机进行动态的博弈和协调。
现有决策规划算法严重依赖预设规则和格式化场景理解,无法应对混乱路口中抢行、犹豫、变道的人类车辆的不确定行为。因此,系统陷入高不确定性下的保守死循环,即“无法100%确认安全 → 不行动 → 持续等待”,从而限制了其实际应用价值。
有分析指出,伴随停电的蜂窝网络波动或实时交通数据中断,可能会带来更为严重的打击。Waymo等公司依赖远程协助(Tele-assist)来处理边缘场景。一旦通信中断,车辆不仅“看不见”,还变得“信息孤岛”,无法获取后台指令或路径重规划。
更讽刺的是,硬件冗余无法弥补“环境模型”的缺失。系统设计默认“世界有规则”,却未为“规则本身消失”构建降级运行机制,这种缺口导致了系统的脆弱性。其“最小风险状态”(Minimal Risk Condition)策略——原地停车——在单车场景下可能合理,但是在车队规模部署时,反而会引发系统性交通堵塞,展现出设计的严重漏洞。
李飞飞:数据与算法的“失衡”才是根源。
这场“黑夜测试”恰如一面镜子,映照出李飞飞近期关于人工智能核心矛盾的深刻洞察。
在近期与钛媒体的对话中,李飞飞明确指出:
她进一步强调,行业普遍存在“算法比数据重要”的认知偏差,这种偏差让人误以为算法工程师的薪资更高、更受追捧,而数据工作被视为“不够性感”。然而,现实情况是:所有AI从业者都承认,数据至少具有同等价值。
Waymo事件正是这一“协同失灵”的典型案例,充分展现了人工智能系统在复杂环境中的失误和不稳定性。
根据Tiger Global泄露文件,Waymo目前每周提供45万次Robotaxi服务,累计路测里程已达数亿英里。这些数据集中于“正常工况”中,即电力稳定、信号有效、人类基本守规的环境中。
然而“全域大规模停电”这类系统性边缘场景(Systematic Corner Case),由于其低概率、高成本、难复现,在训练集中几乎空白。算法从未在足够多样本上学习“规则失效时该如何反应”,自然在真实世界中“懵圈”。
更深层问题在于,当前系统缺乏一个能理解物理与社会规则如何动态演化的世界模型(World Model),其缺陷导致了对复杂系统的不良预测和决策的困难。
理想的世界模型应能推理:停电引发信号灯失效,人类行为从规则主导转变为博弈主导,路口通行效率下降,而我需要采取更灵活但谨慎的策略,如跟随前车缓慢蠕动。
然而现有系统只是感知-预测-规划的流水线拼接,没有因果推理、没有心智理论(Theory of Mind)。当输入异常,算法便在“不确定性过高”的循环中空转,无法调用常识进行降级决策。
这正是李飞飞所说的:“数据和算法就像科学家的两条腿,少哪条都走不远。”Waymo有强大的算法之腿,却在关键数据维度上跛足前行。
为世界模型构建「黑暗训练集」,旨在探索人类未来的可能性和隐患,通过模拟各种情景和挑战,帮助模型学习和预测未来的发展趋势。
李飞飞预测,未来1-2年AI将迎来技术爆发,突破口正在于数据与算法的新型协同机制,这将对自动驾驶行业带来一场数据战略的范式革命。
行业必须放弃对总里程的迷信,转而系统性构建关键场景数据库,包括:
通过定向实采、众包上报与仿真生成相结合的方式积累。
真实停电难以复现,但高保真仿真可以。通过结合生成式AI与数字孪生技术,可以在虚拟旧金山中重复模拟「信号灯全灭+通信中断+人类抢行」这种复合场景,生成大量高质量的训练样本。
Wayve、Covariant等公司已经证明,高质量的合成数据能够显著地提高模型的鲁棒性。未来,自动驾驶公司的核心竞争力可能将体现在其“黑暗场景生成引擎”的能力上。
世界模型需要理解“为什么”,而不仅是“是什么”。这意味着数据标注需从传统的目标检测、语义分割,升级为更加复杂、更加有意义的任务,例如解释目标的原因、关联性、 causality 等。
意图标注:行人挥手是让行还是求助?挥手是人类最常见的非语言交流方式之一,却常常引发误解。究竟挥手是让行还是求助?这取决于具体的语境和文化背景。有些文化中,挥手可能是表达友好的方式,而在其他文化中,挥手可能是请求帮助的信号。因此,为了避免误解,我们需要在不同的文化环境中了解挥手的不同含义,并且在相互交流时,多加注意和理解。
因果关联:车辆减速是因为前方出现了障碍,或者是为了准备变道的原因。
社会规范建模:在无信号灯路口,本地驾驶文化是“先到先走”还是“右侧优先”,这两个驾驶文化模式在不同地区和国家中有着不同的应用和理解。
这类高阶语义数据将成为训练世界模型的关键燃料。
事件也警示:过度依赖云端、高精地图和实时通信可能会引入单点故障风险。未来系统需要支持更强的边缘智能,即使在断网断电的情况下,也能基于局部感知进行长时序风险推演。
相应地,训练数据应包含大量“通信降级”条件下的成功处置案例,让模型学会在信息受限时依然稳健决策。
在探索世界模型落地路径的过程中,国内自动驾驶企业蘑菇车联的实践值得关注。其自研的MogoMind 大模型正尝试构建一个融合物理规律、交通规则与社会博弈常识的统一认知框架,打破传统的模块化架构,将端到端训练、感知、预测与决策之间建立更加紧密的协同机制。更重要的是,蘑菇车联同步打造的AI网络,一套覆盖车端、边缘与云端的分布式智能基础设施,为大模型提供了持续进化的数据闭环,即使在局部通信中断或信号失效场景下,车端模型仍能基于本地化世界表征进行稳健推理。这种“物理世界大模型+AI网络”的双轮驱动,或将成为应对“旧金山式黑夜”的中国方案。

从“规则拟合者”到“世界理解者”,人类的发展之旅,如同一场探索的过程,让我们逐渐地从对规则的遵守到对世界的理解和解释。
旧金山那个停电的夜晚,Waymo车队停滞的红灯,犹如一串刺眼的警示符,照亮了当前自动驾驶技术的边界。或许,真正的智能,不是在阳光明媚的规则世界中完美运行,而是在黑夜混沌中依然知道如何前行。
未来的自动驾驶系统,不仅仅是执行指令的机器,而是应该成为能够深入理解物理世界、洞察人类意图、在不确定性中稳健决策的“数字生命体”。这样,城市的运行将变得更加高效,交通管理将更加智能,人车出行也将变得更加安全。