凌晨的鐵路道口,一輛特斯拉突然啟動,撞斷護欄,與疾馳的列車擦肩而過——司機Joshua Brown事后承認,他當時"走神了"。
這句話暴露了自動駕駛最危險的灰色地帶:當系統接管駕駛,人類注意力卻悄然撤離。
![]()
驚魂90秒:系統何時接管了控制權?
事件發生在德克薩斯州普萊諾市。Brown駕車抵達鐵路道口,停車等待列車通過。據他向當地媒體描述,車輛當時處于完全自動駕駛模式(FSD)。
等待過程中,Brown"走神了"——這個細節至關重要。對普通司機而言,紅燈或等待列車時短暫分心極為常見。但FSD系統在此刻做出了致命判斷:車輛突然啟動,徑直撞向道口護欄。
「大概就在我意識到車子在動的時候,護欄已經就在眼前了,」Brown回憶道。
玻璃纖維材質的道口護欄被撞碎,碎片擊碎車窗。車載后視攝像頭記錄下驚險一幕:達拉斯地區捷運(DART)的列車呼嘯而過,距離車輛僅幾個車身長度。
Brown的回應帶著劫后余生的復雜情緒:「我想說我沒被嚇到,但確實有點后怕。說到底,如果命該如此,那也沒辦法——但上帝眷顧了我,我很感激自己還活著。」
責任邊界:特斯拉的免責聲明與司機的反駁
事件發生后,Brown明確表示不會起訴特斯拉。但他轉述了公司的標準回應:「他們說你開車時應該保持主動參與。」
這個條款存在于所有FSD用戶協議中,卻與真實使用場景存在根本張力。Brown的反駁直指核心矛盾:「說實話,我當時確實在主動參與,不然我可能已經死了。」
這句話揭示了自動駕駛安全設計的深層困境。系統要求人類"隨時接管",但人類注意力天然會在系統運行時衰減——這是認知科學的基本事實,而非道德缺陷。
Brown給出了自己的解決方案:「我保證,以后在鐵路道口,我的腳會懸在剎車上——或者直接關閉FSD。不會再信任它能乖乖停著了。」
從"信任系統"到"主動防御",這位司機的行為轉變,折射出用戶對自動駕駛信任曲線的真實崩塌軌跡。
歷史的回響:兩個Joshua Brown的宿命對照
報道中一個令人不安的巧合:這位德州司機與2016年佛羅里達州致命事故遇難者同名同姓。
2016年5月,佛羅里達的Joshua Brown駕駛特斯拉Model S,在Autopilot模式下與一輛橫穿公路的拖車相撞身亡。調查稱他當時正在觀看《哈利·波特》電影——這是全球首例公開的自動駕駛致死事故。
近十年過去,兩個同名者的經歷形成殘酷對照:一個因過度信任系統喪生,一個因及時干預幸存。而特斯拉的自動駕駛技術,仍在"識別靜止障礙物"這一基礎場景上反復跌倒。
鐵路道口對自動駕駛系統而言是經典難題。列車軌道在視覺特征上類似于道路標線,靜止等待狀態與正常行駛狀態的切換邏輯復雜。2016年的事故涉及橫向移動的拖車,2024年的險情則是縱向靜止后的突然啟動——技術路徑不同,失敗模式卻同樣指向系統對"何時該不動"的判斷混亂。
產品視角:FSD的"過度進取"設計哲學
從產品經理角度審視,這起事件暴露了特斯拉FSD的一個核心特征:系統在不確定性場景下傾向于"行動"而非"保守"。
鐵路道口等待時,車輛本應保持靜止——這是最安全的狀態。但FSD選擇了啟動前進,說明其決策算法將某種信號誤判為"可以通行"的指令。這種"進取型"設計在開放道路可能提升通行效率,在封閉道口卻成為致命缺陷。
Brown的"走神"在此語境下需要重新理解。人類司機在明確等待場景(紅燈、道口欄桿放下)中降低注意力,是基于環境安全信號的合理行為。FSD的問題在于,它沒有建立與這些環境信號匹配的"絕對靜止"觸發機制。
更值得追問的是系統狀態提示。Brown"意識到車子在動"時才驚覺危險,說明FSD在啟動前缺乏足夠明顯的警示——或警示被司機忽略。無論哪種情況,人機交互設計都未能阻止錯誤決策的執行。
行業鏡鑒:自動駕駛的信任重建之路
這起事件發生在特斯拉FSD大規模推送的關鍵節點。2024年,特斯拉將FSD訂閱價格從每月199美元降至99美元,并擴大免費試用范圍,用戶基數急劇膨脹。
但技術成熟度與商業擴張的速度差正在制造系統性風險。Brown的經歷并非孤例——社交媒體和監管機構記錄中,FSD在鐵路道口、施工區域、緊急車輛停靠等場景的事故頻發。
特斯拉的應對策略始終是"強化用戶教育":強調雙手不得離開方向盤,視線不得離開路面。但這種將技術缺陷轉嫁給用戶注意力的做法,與自動駕駛"解放人類"的核心價值主張存在根本沖突。
更深層的問題在于數據閉環。每一起險情都是訓練樣本,但特斯拉的"影子模式"能否有效捕捉并學習這些邊緣案例?鐵路道口的極端稀缺性(日常駕駛中占比極低)可能導致算法在此類場景上持續欠擬合。
Brown的幸存為行業提供了一個珍貴樣本:人類干預的臨界點在哪里?從"意識到移動"到"護欄就在眼前",反應時間可能不足兩秒。這要求系統要么完全杜絕此類錯誤,要么提供更早的預警——而非依賴人類在最后一刻拯救自己。
數據收束
近十年,兩個Joshua Brown,一死一生。2016年的事故推動NHTSA啟動首份自動駕駛調查指南,2024年的險情則發生在FSD用戶量可能突破百萬的擴張期。
Brown的承諾——"腳懸剎車、道口關FSD"——是個體層面的理性適應,卻是產品層面的失敗信號。當用戶被迫為系統設計缺陷建立補償機制,自動駕駛的"自動"二字便已名存實亡。
鐵路道口不會消失,人類走神無法根除。真正的問題在于:FSD的決策邊界,是否比2016年更清晰?從這起事件看,答案令人擔憂。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.