自動駕駛汽車本應使駕駛更加安全,但現實可能并不是這樣。一些更為樂觀的研究表明,僅在美國,自動駕駛汽車每年就能挽救數萬人的生命。
但到目前為止,優步、谷歌,甚至可以說特斯拉,這些追求技術的大公司的文化已經直接導致了不必要的碰撞、傷害,甚至死亡。
讓我們清楚這一點,這些公司已經獲得了一項艱難的,潛在的“革命性”技術的通行證,但是,這些公司缺乏社會責任感。
這些公司的行為喪失了一些人的生命,在這個過程中,他們使整個領域的前景變得黯淡,削弱了公眾對自動駕駛汽車的信任,并推遲了許多人希望拯救生命的技術的推出。
追求自動駕駛技術的最引人注目的公司接連失敗,突顯出一個事實:自動駕駛系統的安全性,取決于建造它們的人和組織。
優步的自動駕駛汽車部門可能不僅不計后果,而且完全玩忽職守。
據報道,該公司的管理人員無視來自其安全團隊的詳細電話,繼續采取不安全措施,導致一名行人死亡。在此之前,許多事故和險些發生的事故都沒有引起人們的注意。
據報道,在谷歌的自動駕駛汽車部門,至少有一名高管不受測試程序協議的約束,直接導致了一場嚴重的撞車事故,導致他的乘客受傷,而且從未通知警方這是由一輛自動駕駛汽車造成的事故。
據我所知,根據加州車管所的記錄,Waymo(現在是谷歌的一家子公司)今年發生了21起撞車事故,不過其中只有一小部分是它造成的。
在兩個不同的場合,特斯拉的半自動駕駛系統Autopilot在司機遭遇致命車禍時啟動。
去年10月,佛羅里達州一名特斯拉車主在駕駛自動駕駛汽車時發生嚴重事故,隨后起訴特斯拉,稱該公司“欺騙了消費者”。讓我們相信,它與特斯拉汽車一起提供的自動駕駛系統,以額外的成本,能夠在高速公路上以最低的投入和監管,安全地運送乘客。(特斯拉當然駁斥了這種說法。)
這起案件更加復雜,因為特斯拉明確警告不要讓系統完全驅動汽車,并安裝了防護措施,以阻止此類不良駕駛行為。
然而,特斯拉繼續在其網站上宣傳,它提供“所有汽車上的全自動駕駛硬件”,而特斯拉自己的工程師告訴監管機構,他們預計一些司機將完全依賴該系統。然而,特斯拉公開否認,他們的系統可能會導致司機對其半自主系統產生任何危險的依賴。
難怪公眾對自動駕駛汽車持謹慎態度。
倫敦大學學院(University College London)科技系高級講師、即將推出的無人駕駛未來項目的首席研究員杰克·斯第爾戈(Jack Stilgoe)博士說,“目前,在美國進行車輛測試相當不計后果。”“哪些風險是可以接受的,由企業來決定。”“通常情況下,這些公司都明確認為,風險非常高是可以接受的。”
在自動駕駛汽車領域,有很多企業不計后果,最新最引人注目的例子就是發生在亞利桑那州坦佩(Tempe)的這起臭名昭著的致命車禍。優步的一輛車在坦佩相撞,導致一名49歲的行人死亡。
據報道,這些信息是由這家測試運營集團的前經理羅比米勒(Robbie Miller)發給包括該公司自動駕駛汽車部門負責人在內的7名優步高管的一封電子郵件獲得的,郵件警告稱,為出租車提供動力的軟件存在缺陷,后備司機沒有經過充分培訓。
米勒寫道:“汽車經常發生事故,造成損壞,這通常是操作者或AV技術表現不佳的結果。二月里幾乎每隔一天就有一輛車損壞。我們不應該每15000英里就撞一次。”
因為駕駛技術不佳而一再違規的情況很少會終止駕駛。一些司機似乎沒有經過適當的審查或培訓。
那太瘋狂了。當時,在舊金山、匹茲堡、圣達菲等地,有數百輛自動駕駛汽車行駛在道路上。
AV技術顯然是有缺陷的,備份驅動程序沒有保持警惕,盡管多次發生事故,但什么也沒有得到解決。
米勒電子郵件發出五天后,伊萊恩·赫茨伯格(Elaine Herzberg)騎著自行車慢慢過馬路時,一輛使用優步(Uber)自動駕駛軟件的沃爾沃撞上了她,導致她死亡。事故發生時,司機顯然在Hulu上播放The Voice。
這一悲劇并非某些尖端技術的反常故障——這完全是可以預見的企業瀆職的副產品。
優步是這起案件中最糟糕的參與者,但它也不是唯一的一個,而且它建立在多年前形成的一種文化基礎上,在這種文化中,技術領先的需求蓋過了安全擔憂。
安東尼·萊萬多夫斯基(Anthony Levandowski)是谷歌自動駕駛汽車項目的前負責人,他的魯莽、粗心是出了名的。公平地說,我們甚至不知道他監管的自動駕駛汽車發生了多少起事故。這里有一個關鍵的例子,正如Charles Duhigg在《紐約客》上報道的那樣:
2011年的一天,谷歌的一位名叫艾薩克·泰勒(Isaac Taylor)的高管得知,在他休陪產假期間,萊萬多夫斯基修改了這些車的軟件,這樣他就可以把它們帶到其他禁止行駛的路線上。谷歌的一位高管回憶說,他曾親眼目睹泰勒和萊萬多夫斯基互相大喊大叫。萊萬多夫斯基告訴泰勒,向他展示自己的方法為何必要的唯一方法就是一起乘車。這兩名男子很憤怒,跳上一輛自動駕駛的普銳斯,開走了。
車開上了高速公路,經過了一個入口匝道。據知情人士透露,當天,普銳斯不小心與另一輛車凱美瑞相撞。
一個人類司機可以很容易地通過減速和讓凱美瑞并入車道來處理這種情況,但是谷歌的軟件并沒有為這種情況做好準備。
汽車在高速公路上并排加速行駛。突然,凱美瑞的司機猛地把車轉向道路的右邊。然后,為了躲開護欄,又轉向左邊。
于是,凱美瑞轎車在高速公路上橫沖直撞,撞到了中間。萊萬多夫斯基當時是一名安全駕駛,為了避免與凱美瑞發生碰撞,他迅速急轉彎,結果導致泰勒的脊椎嚴重受傷,最終不得不接受多次手術。
普銳斯重新獲得了控制權,在高速公路上拐了個彎,把凱美瑞甩在了后面。萊萬多夫斯基和泰勒不知道凱美瑞受損有多嚴重。
他們沒有回去查看凱美瑞司機的情況,也沒有去看看是否有人受傷。他們和谷歌的其他高管都沒有向當局詢問,也沒有告知警方這起事故與自動駕駛算法有關。
萊萬多夫斯基傾向于將AV測試置于安全之上,這一點已經被事實證明了,警察未被告知這一事實是關鍵所在。
谷歌在很長一段時間內對其自動駕駛汽車項目表現得很坦率,以至于雜志報道稱,2016年,在萊萬多夫斯基事件五年后,一輛谷歌汽車引發了“第一次撞車”。
這一點,再加上優步的爆料,應該讓我們深入思考,我們應該要求在共享道路上進行自動駕駛汽車測試的公司提供多大程度的信任和透明度。
一位Waymo發言人說:“安東尼?萊萬道基(Anthony Levandowki)對安全的漠視,并沒有反映出Waymo的使命和價值觀。在Waymo,我們團隊中的數百名工程師每天都在工作,致力于把這項技術安全地帶到道路上來。”“我們公司的成立是為了提高道路安全,所以我們對自己的安全要求很高。”
根據加州的自動駕駛汽車碰撞記錄,Waymo今年發生了21起小事故,其中只有幾起是Waymo的錯。這是一個相當好的記錄,假設所有事故都得到了準確的報告,Waymo對安全的強調似乎為該行業指明了方向。
就優步而言,已經將其自動駕駛汽車從道路上收回,并表示已對其自動駕駛汽車測試程序進行了大修。
雖然當我向優步發言人詢問自事故發生以來它是如何改變其公司政策時,她向我發送了與我的同事詹寧斯·布朗發送的完全相同的信息回復:“現在整個團隊都專注于安全,我們對團隊為實現目標所做的工作充滿信心。我們的團隊仍然致力于實施關鍵的安全改進,我們打算只有在實施這些改進并且我們已經獲得賓夕法尼亞運輸部的授權后才能恢復在路上的自動駕駛測試。
優步拒絕回答以下問題:公司文化是否發生了變化,公司里是否有人為其責任,或者除了上述聲明和公開發布的材料以外,是否還有還有其他事情。優步并沒有否認對這起事故負責。
在2018年12月的第一周,警方成功阻止了一輛特斯拉Model S,當時它正以每小時70英里的速度高速行駛,司機在駕駛時睡著了。司機啟用了自動駕駛儀,行駛了17英里才被攔下。
在上文提到的10月份針對特斯拉的訴訟中,佛羅里達州男子肖恩說,他購買特斯拉的部分原因是特斯拉的自動駕駛功能,他認為這可以讓他在漫長的通勤途中放松下來,所以他經常在路上寫電子郵件、查看手機,包括撞車發生的時候。
特斯拉處于一個獨特的位置。如前所述,長期以來,該公司一直在為其汽車配備其所稱的“完全自動駕駛硬件”,同時也發布警告,要求消費者不要完全依賴自動駕駛儀。自動駕駛儀是一種半自動駕駛系統,售價額外5000美元。它正在不斷升級軟件,讓已經上路的司機更接近自動駕駛的現實。
Stilgoe告訴我,“特斯拉正在對自動駕駛試驗睜一只眼閉一只眼。”人們不負責任地使用自動駕駛儀,而特斯拉之所以忽視它,是因為他們在收集數據。特斯拉還誤導人們,說他們在賣自動駕駛汽車。他們使用的短語是“全自動駕駛硬件”。
事實上,埃隆?馬斯克(Elon Musk)本人本質上是在宣傳特斯拉無人駕駛的潛力,在不到60分鐘的露面時間里,他做了一點大膽的嘗試。
特斯拉強調,在購買過程中,其銷售團隊展示了自動駕駛儀的正確使用方法,讓買家不再認為它的功能與自動駕駛汽車類似。
它還增加了一些功能,用戶可以不用手來關閉自動駕駛儀。盡管如此,市場營銷是強大的力量,自動駕駛被濫用為自動駕駛系統的碰撞和事故仍在繼續。
以這種方式公開推廣其產品是一個有意識的決定,它可能有助于向特斯拉的司機灌輸一種信念,即他們能夠以營銷語言描述的方式使用這一功能。
在第一次致命事故發生后發布的報告中,美國國家公路交通安全管理局(其解除了特斯拉的不法行為)仍然發現:
“在研究和開發Autopilot的過程中,特斯拉考慮了司機可能會以各種方式濫用該系統的可能性,包括上文提到的那些方式——即自動駕駛。”
通過模式混淆、分心駕駛、以及使用系統以外的首選環境和條件,特斯拉工程師考慮的駕駛員分心類型包括,駕駛員在使用自動駕駛儀時可能無法集中注意力、睡著或失去動作[原文如此]。
作為特斯拉設計過程的一部分,特斯拉評估了司機濫用的可能性,并對解決方案進行了測試、驗證,并將其整合到產品的廣泛發布中。特斯拉對司機濫用的評估以及由此導致的行動似乎解決了這種濫用可能帶來的不合理的安全風險。
換句話說,特斯拉的團隊知道,一些司機將使用Autopilot作為一種真正的自動駕駛模式,最終將完全依賴該系統。
盡管NHTSA發現,特斯拉的工程師已經對此做出了解釋,但該系統在兩起致命事故和更多事故中仍在使用。
與此同時,美國國家運輸安全委員會(National Transportation Safety Board)發現,特斯拉在勸阻司機不要濫用自動駕駛儀方面做得不夠,實際上應該承擔部分責任。
與特斯拉發言人打了幾個小時的電話,在此期間,該公司拒絕談論推銷其車輛與“所有車輛上的全自動駕駛硬件”相關的話題。
然后堅持要求購買特斯拉的司機不要將其視為自動駕駛汽車,該公司僅提供了它在10月份佛羅里達州訴訟后發布的聲明。
該聲明如下:“特斯拉一直清楚自動駕駛儀不能使汽車不受所有事故影響,特斯拉竭盡全力提供關于自動駕駛儀能做什么和不能做什么的明確指示。
看,駕駛已經是一個混亂,危險的業務。
高功能的自動駕駛汽車在人類健康方面可能是一個天賜之物,但是在道德上是一個棘手的問題。
在特斯拉的案例中,我們無法知道某些自動駕駛儀用戶是否會如此分心地駕駛車輛以至于造成意外事故。
但事實是,我們這些自己開車的人和行人對于我們如何與自動駕駛車輛共存幾乎沒有任何發言權。
到目前為止,正如萊萬多夫斯基(Levandowski)曾經說過的那樣,科技巨頭在一場“他們需要贏的競賽”中,已經為我們做出了決定。
推動立法更嚴格地監管自動駕駛汽車的測試,并且要求那些對傷害性和致命性違規行為負有適當責任的公司承擔責任,似乎是一種合理的手段。
除非這些公司大幅改善努力,將安全和開放置于開發速度和銷售技巧之上,否則它們既可能造成進一步的傷害,也可能疏遠已經對自動駕駛汽車前景持謹慎態度的公眾。
Stilgoe說:“我們仍然不知道大多數人會認為什么是可接受的風險,但我的猜測是,即使我們知道自動駕駛汽車比人類司機安全一點,公眾也不會滿意。”
任何崩盤都是一場災難,自動駕駛汽車行業必須付出更大努力,才能贏得安全方面的爭論。
評論
查看更多