實現(xiàn)目標的路只有一條,想走過去就必須經(jīng)過雷區(qū)
3月的一個早晨,天剛蒙蒙亮,杰里米·班納(Jeremy Banner)就從床上爬了起來,與其他通勤日一樣,他坐進自己的那輛紅色特斯拉Model 3(參數(shù)|圖片)里,朝著目的地駛?cè)ァ?/p>
從車里往外看,路旁的沼澤和農(nóng)田就像一大片綠地一樣,這時,班納點擊了屏幕上的一項操作,隨著一聲輕快的提示音響起,市面上能看到的最復雜、也最富爭議的Autopilot模式被啟用了。
這就是說,在電腦的控制下,汽車可以自行加速、變道、選擇出口,如果前方有障礙物,還可以進行制動。
但這是班納最后一次使用這個功能,這也是他生命的最后一天。
特斯拉的目標是通過造出世界上首款完全自動駕駛汽車來主導全球汽車市場,它認為這一步至關(guān)重要??蛻粢残帕?。
該公司從Autopilot上收集到的行駛里程已經(jīng)超過15億英里(約24億公里),其中不乏有一些車主是在特意挑戰(zhàn)軟件能做的極限。
盡管《車主手冊》提醒司機應(yīng)當密切注意路況,但這并沒有阻止一些人讀書、打盹、彈琴或車震。不過,大多數(shù)時候,汽車確實把他們帶到了要去的地方。
回到班納的故事里,他的車在那一天遇到的卻是“少數(shù)時候”。該車沒能發(fā)現(xiàn)前面有一輛卡車正穿過四車道的高速公路,班納本人顯然也處于游離狀態(tài)。
接下來,他的車以超過100公里/時的速度與卡車相撞,車頂被掀翻。這位時年50歲,已是三個孩子父親的車主當場喪生。
后來,班納的家人根據(jù)佛羅里達州的《非正常死亡法案》起訴了特斯拉,給出的理由直截了當:特斯拉承諾提供一輛安全的汽車,卻交付了一輛存在危險、有缺陷的汽車。
人類有出現(xiàn)判斷失誤的時候,但不一定都會導致嚴重的后果,這是因為人犯錯的程度不同,選擇補救的方式也多種多樣。
這就引發(fā)了一個思考,要是系統(tǒng)出了問題怎么辦?縱使車上配備了多種探測設(shè)備,但當軟件認為前方道路沒有危險時,那它就認定一切安全,因此不會采取任何防護措施。
自2015年特斯拉引入自動駕駛系統(tǒng)以來,在已知的5起死亡事故中,有4起都是這種疏忽造成的。
但Autopilot與歷史上幾乎所有其他消費產(chǎn)品都不一樣,它在某些方面為我們提供的是一個對未解決問題的預演,讓我們提早看到自動駕駛時代會面臨哪些令人不安的問題。
特斯拉CEO埃隆·馬斯克(Elon Musk)就表示,這項技術(shù)挽救了生命,很多特斯拉車主都提供了自己的證詞,證明車輛能發(fā)現(xiàn)危險并避免了碰撞。(不信的話,還有油管視頻為證)
在發(fā)生班納致命事故后不到兩個月,馬斯克邀請了大約100名投資者和分析師來到特斯拉位于帕洛阿爾托的總部,在一個寬敞的會議廳里與他們暢談,好似什么都沒發(fā)生一樣。
可能雙方都是對的。依靠電腦系統(tǒng),一些本來可以活下來的司機失去了生命,但同時,技術(shù)的不斷更新也將在未來讓致命事故大幅下降成為可能。
黃:所有特斯拉汽車行駛里程,黑:Autopilot行駛里程,單位:英里
馬斯克決定讓盡可能多的人擁有Autopilot,這相當于把世界各地的高速公路集合在一起,成為一個前所未有的實驗場。
由此可見,這個問題已經(jīng)不僅僅是學術(shù)上的討論了。而在未來幾年里,社會——尤其是監(jiān)管機構(gòu)和法院——將不得不決定這是否是一種可以接受的商品。
讓我們再來看看另一位特斯拉車主的情況。
只有26歲的年輕軟件工程師奧馬爾·卡齊(Omar Qazi)“開”著特斯拉行駛在洛杉磯的一條州際公路上,之所以要打引號,是因為他其實并沒有把手放在方向盤上,這輛黑色Model 3同樣是開啟了自動駕駛模式,正以約80公里/時的速度前進著,還是在交通最繁忙的時段。
“完美。”看到方向盤自動向左打了一點,車輛又回到平緩彎曲的車道中央后,卡齊評價道。
留著胡茬、穿著一雙藍色耐克Air鞋,就像卡齊一樣,特斯拉的大批鐵桿粉絲中,很多都是富裕、癡迷科技的男性,有些人還經(jīng)常在推特上與馬斯克互動。
在一個充電站停車后,卡齊展示了還屬于試驗性質(zhì)的“智能召喚”功能。
他按下了手機上的一個按鈕,隨后,他的特斯拉從車位開了過來?!斑@功能現(xiàn)在還沒什么用?!笨R笑著說,但因為這能招來不少觀眾,以致于喜歡炫耀的他經(jīng)常忍不住就要試一試。
智能召喚讓人們得以一窺馬斯克所承諾的自動駕駛的未來,但對于道路行駛來說,Autopilot自始至終都是避不開的關(guān)鍵。
特斯拉表示,這項技術(shù)還不夠可靠,所以需要司機把手放在方向盤上,哪怕是一秒鐘,也不能將注意力放到別的地方。
當然,這也有法律上的目的。因為美國大多數(shù)州仍在研究如何管理自動駕駛汽車,而對州監(jiān)管機構(gòu)來說,Autopilot只是一個高級的駕駛員輔助程序,或者說是巡航控制的加強版。
Autopilot還不能完美應(yīng)對非高速公路上的交通信號燈和停車標志等問題。但在高速公路上,積累了4年的數(shù)據(jù)信息,這確實讓它逐漸承擔了更復雜的任務(wù),比如平穩(wěn)地并道、防止其他車輛插隊,或者是從一條高速路導航行駛到另一條高速路。
“它不可能完美地自動駕駛,但每隔幾周你就會得到一次更新,汽車的駕駛也越來越像人類?!笨R感嘆道,但也表達了一種擔心,“這反而讓人有點害怕?!?/p>
為什么會這樣?因為機器本來就應(yīng)該有超過人類的準度,如今卻讓機器變得像人類一樣,一定程度上是在降低標準。拿前面的防止插隊來說,自動駕駛變得更像人類司機的話,就意味著系統(tǒng)有可能選擇讓步,讓其他車輛先走。
事實上,駕駛是大多數(shù)成年人做的最危險的事情之一。去年全美有40000人死于車禍,全球范圍則有140萬人因交通事故喪生。
1974年,為了節(jié)省燃料,美國將高速公路限速限制在每小時55英里。一項研究發(fā)現(xiàn),這種變化在第一年至少減少了3000人車禍死亡。但人們喜歡開快車,因此國會后來取消了這一限制。
幾年前,交通事故造成的死亡人數(shù)開始小幅上升,有專家將其歸因于智能手機的使用。但這也沒用,現(xiàn)在依舊有人邊開車邊發(fā)信息。
但不管有什么缺陷,電腦都不會醉酒、疲勞、生氣,也不會有開車時刷手機的沖動。這是它不會變得像人類的一大優(yōu)勢。
自動駕駛技術(shù)承諾消除94%的人為失誤車禍。從這個角度來看,自動駕駛汽車可能成為與青霉素和天花疫苗同一級別的救星。
卡齊做了個計算,說有朝一日,自動駕駛汽車每天能拯救3000條生命。按照他的邏輯,屆時沾滿鮮血的將是任何阻礙這一進程的人,“想象一下,有人把軟件延遲了一天,因此不少人失去了生命”。
商業(yè)火箭、高速隧道、大腦植入、電動汽車,在南非出生和長大的馬斯克,不到30歲就賺了很多錢,然后我們就看到了他的這一系列大膽的項目。
特斯拉的股價已經(jīng)下跌了幾個月。盡管推出了世界上最暢銷的電動車Model 3,但該公司距離實現(xiàn)盈利仍任重道遠。
于是,馬斯克有了新的關(guān)注點?!敖裉焐下返钠噷⒛茉趲讉€月內(nèi)在當?shù)氐缆飞鲜褂肁utopilot?!彼f,“到2020年的某個時候,車輛將不再需要人工監(jiān)督,并可以在閑置期間通過自動駕駛出租服務(wù)來賺錢。”
崇拜者認為馬斯克是一個改變世界的夢想家,他的敵人則覺得這又是一個會吹牛的騙子。
“從財務(wù)角度上來說,購買特斯拉以外的任何東西都是不靠譜的?!瘪R斯克接著說道。
包括通用汽車、戴姆勒和Uber在內(nèi)的幾十家公司都在競相開發(fā)這項技術(shù)。對于任何關(guān)注自動駕駛汽車行業(yè)的人來說,馬斯克給出的時間線看起來過于大膽。
許多觀察人士認為,實力最強的競爭者依舊是Waymo??墒嗄陙硪恢敝铝τ诮鉀Q這個問題的Waymo還沒有向公眾出售自動駕駛汽車。
馬斯克卻很自信地告訴投資者,稱特斯拉將超越他們所有人,這要歸功于已經(jīng)上路的50多萬輛配備自動駕駛系統(tǒng)的特斯拉汽車。簡單來說,Autopilot就像是草稿,用的人多了、數(shù)據(jù)多了,就能逐漸被“描繪”得更加靈活和可靠,最終實現(xiàn)真正的完全自動駕駛。
智能手機APP和視頻游戲采用的正是這種方式,先向客戶發(fā)布尚不完整的軟件,并希望在這個過程中解決問題,增加功能。
但有一點要注意,這些產(chǎn)品完不完美不會致人死亡,自動駕駛卻有這個可能。
Waymo、通用汽車和其他公司也有大致的設(shè)計方案,但它們只安裝在幾百個測試車型中,部署在全國少數(shù)幾個精心挑選的社區(qū),而且?guī)缀蹩偸亲袑I(yè)的安全駕駛員。
馬斯克顯然不這么想,他正以最快的速度把“草稿”送到消費者手中。不得不說,這使得特斯拉的工程師能夠從客戶那里收集到TB數(shù)量級的數(shù)據(jù),并根據(jù)真實世界的情況,利用這些信息來完善自動駕駛軟件。
即使特斯拉不在自動駕駛模式下,它們也會自動地將人類駕駛員的選擇與計算機所做的選擇進行比較。每隔幾周,特斯拉就能推送新的Autopilot版本,將其上傳到汽車里。
對此,卡齊和其他車迷很高興。
“每個人每時每刻都在訓練這個網(wǎng)絡(luò)?!瘪R斯克解釋說,并把這種良性循環(huán)稱為“車隊學習”,將其與谷歌的搜索引擎每年處理1.2萬億次查詢的方式進行比較。他堅信,軟件會有一天變得足夠好,讓司機不會再想要方向盤。
另一方面,當摩根士丹利分析師就Autopilot的安全記錄向馬斯克施壓時,他很快把話題轉(zhuǎn)向了人類駕駛的危險,以及技術(shù)修復它的潛力上。
汽車好比是由人工操作的老式電梯,“每隔一段時間,工作人員就會感到疲勞、喝醉了,或者別的什么,然后他們就會在錯誤的時間轉(zhuǎn)動杠桿,因此釀成災難?!瘪R斯克接著說,“現(xiàn)在可沒有電梯操作員了?!?/p>
除非司機走上電梯服務(wù)員的老路,否則自動駕駛是下一個最好的選擇。
他曾表示,讓Autopilot退出市場“在道德上應(yīng)該受到譴責”。有意思的是,不光是馬斯克或他的支持者這么想,受害者也有站在他這一邊的。
第一位死于自動駕駛的美國駕駛員是來自俄亥俄州的海軍老兵約書亞·布朗(Joshua Brown),他和班納一樣,也是撞上了一輛十字路口的半掛卡車。在2016年的車禍之后,他的家人發(fā)表了一份聲明,基本上表達了對特斯拉道德考量的支持。
“改變總是伴隨著風險,我們的兒子對未來的公路安全產(chǎn)生了如此積極的影響,這讓我們?nèi)腋械叫牢亢妥院?。”聲明中寫道?/p>
實際上,他是馬斯克事業(yè)的殉道者。
不可否認,當我們把大部分(還不是全部)責任交給電腦時,我們就會走神。更嚴重的是,作為司機,駕駛技術(shù)也有可能因此變得生疏。
航空史上充斥著人類對自動駕駛模式過度依賴所導致的錯誤。西北航空公司的兩名飛行員一度完全走神,這讓他們的飛機足足飛離了原定目的地160公里。
“注意力會分散,這是人之常情?!鼻昂\姂?zhàn)斗機飛行員、杜克大學普拉特學院工程教授米西·卡明斯(Missy Cummings)給出了這樣的回答,并希望Autopilot退出市場。
與此同時,系統(tǒng)所認為的最具挑戰(zhàn)性的一些任務(wù)往往對人類來說是小菜一碟。因此,電腦出問題的時候,也很可能是司機覺得最安全的時候。
上述兩起事故就是很好的證明。任何一個有感知能力的成年人都能分辨出良性道路特征(公路立交橋、頭頂標志、停在路邊的車)和潛在風險(一輛擋在路中間的卡車)之間的區(qū)別。
但對于世界上最復雜的機器視覺軟件來說,這非常難辦到。
特斯拉一直拒絕對其Autopilot設(shè)限,因為這樣做讓系統(tǒng)更安全的同時,用起來也更不方便。該公司允許駕車者將自動駕駛儀的巡航速度設(shè)置在當?shù)叵匏僖陨?,并允許車輛在任何能檢測到車道標記的地方啟動自動模式。(手冊上說它的使用應(yīng)該限制在高速路上)
對于那些想要測試特斯拉汽車自動駕駛極限的人,馬斯克或多或少都給予了鼓勵。
他親自在電視節(jié)目中扮演反面教材,完全按照手冊上的警告反著來,啟動Autopilot,把手從方向盤上移開,然后展示了一款Model 3。
后來,一段涉及Autopilot的色情視頻在網(wǎng)上瘋傳后,馬斯克發(fā)了一條推文,開玩笑地說:“事實證明,使用這個功能的方式比我們想象的要多?!?/p>
就連卡齊也承認,說他和前女友曾經(jīng)在Autopilot模式下的車里親熱過。他盡力把一只眼睛盯在路上。
鑒于Autopilot現(xiàn)在已經(jīng)積累了超過24億公里的行駛記錄,確定它的安全水平應(yīng)該很容易才對。但到目前為止,特斯拉既沒有官方公布的數(shù)據(jù),也沒有向第三方研究人員提供相關(guān)信息。
我們能知道的,只有馬斯克聲稱的使用Autopilot駕駛的安全性大約是不使用情況下的2倍這個說法。
特斯拉倒是公布了每季度Autopilot的事故率數(shù)據(jù),但安全專家表示,如果沒有這些事故發(fā)生的具體情況,數(shù)字本身毫無用處。
在2016年的布朗撞車事故后,美國國家公路交通安全管理局(NHTSA)對Autopilot進行了調(diào)查,但發(fā)現(xiàn)沒有理由召回。該部門得出的一個結(jié)論是,安裝了Autopilot的特斯拉汽車的事故率比沒有安裝此功能的同品牌車輛低40%。
得出這種結(jié)果所依靠的數(shù)據(jù)并非完全可信。要知道,盡管特斯拉當時已提交4.4萬輛汽車的里程和碰撞數(shù)據(jù),但除了5700輛以外,其他所有車輛的關(guān)鍵數(shù)據(jù)都有缺失或相互矛盾。
馬里蘭州的獨立統(tǒng)計顧問蘭迪·惠特菲爾德(Randy Whitfield)指出了報告中的這些缺陷,但NHTSA表示他們將堅持原有的發(fā)現(xiàn)記錄。
在評估Autopilot或完全自動駕駛技術(shù)這一點上,一大問題在于不清楚社會將接受何種程度的安全性。
自動駕駛汽車在上路之前應(yīng)該是完美無瑕的,還是僅僅比一般的人類司機更好就行?
“人類對機器缺陷造成的傷害或死亡幾乎是零容忍的?!必撠熦S田自動駕駛技術(shù)研發(fā)的吉爾·普拉特(Gill Pratt)在2017年的一次演講上表示,“機器學習需要很多年的時間,再加上遠超他人的模擬測試和真實測試的里程數(shù),才能達到所需的完美效果?!?/p>
但如此高的標準反而可能導致更多的死亡。蘭德公司2017年的一項研究中,研究人員尼迪·卡爾拉(Nidhi Kalra)與大衛(wèi)·格羅夫斯(David Groves)評估了該技術(shù)發(fā)展的500種不同假設(shè)情景。
在大多數(shù)情況下,等待近乎完美的自動駕駛汽車的代價,與接受只比人類安全一點點的汽車相比,差別就要用數(shù)萬條人命來衡量。
“那些還在等著近乎完美的人應(yīng)該意識到,這不是沒有代價的?!睓C器人專家卡爾拉給出了這樣的回答。
我們習慣于認為代碼是由人類程序員編寫的一系列指令??柪恼擖c的關(guān)鍵卻是在汽車如何學習的洞察力上。
識別一輛自行車,然后預測它會朝哪個方向走,這太復雜了,不能歸結(jié)為一系列的指令。大多數(shù)電腦都是這樣工作的,但特斯拉和其他自動駕駛汽車開發(fā)商使用的電腦不是這樣。
相反,程序員使用機器學習來訓練他們的軟件。他們可能會給它展示數(shù)千張不同自行車的照片,從不同的角度,在不同的背景下。他們可能還會給它看一些摩托車或單輪腳踏車,這樣它就知道其中的區(qū)別。隨著時間的推移,系統(tǒng)就能制定出自己的規(guī)則來解釋它看到的東西。
機器積累的經(jīng)驗越多,它就越聰明。但這只解決了問題的一部分。即使我們造出了一輛完美的自動駕駛汽車,我們又怎么知道呢?
卡爾拉接著說:“如果我們真的想最大限度地挽救生命,我們甚至可以在自動駕駛汽車比人類更危險的時候讓它們上路,以加速它們的學習能力。”
另外,致命事故在統(tǒng)計上其實相當罕見。在美國,每行駛1億3千萬多公里才會有一起類似事件,如果換成模擬數(shù)據(jù),那么想要達到必要的測試數(shù)量太浪費時間。
在蘭德公司的另一篇文章中,卡爾拉估計,一輛自動駕駛汽車要無故障行駛約4.42億公里才能證明它比人類司機更好,而這一距離需要100輛測試車連續(xù)行駛12年以上才能完成。
考慮到這一切,再回顧馬斯克計劃同時完善和測試他的自動駕駛,利用真實道路上的老客戶作為志愿測試者的方法,好像聽起來也沒那么瘋狂了。
說起來也許有些恐怖,但如果不讓大量駕車者面臨被機器殺死的風險,也許就不可能實現(xiàn)自動駕駛安全性上的本質(zhì)提高。
馬斯克決定加速Autopilot的發(fā)展,并讓它在未經(jīng)批準的道路上工作,這背后有一定的邏輯。
每次司機為了避免事故從而奪回控制權(quán)時,對電腦來說都是一個潛在的教育時刻,一個讓軟件學會不應(yīng)該做什么的好機會。
再來看一個例子。美國已經(jīng)有了一個對可能拯救生命但也可能有致命副作用產(chǎn)品進行測試的機制,那就是分階段臨床藥物試驗。
卡內(nèi)基梅隆大學哲學教授亞歷克斯·倫敦(Alex London)呼吁汽車監(jiān)管機構(gòu)采取類似措施,允許新技術(shù)分階段上路,同時密切監(jiān)控其安全記錄。
“這也許不是最好的提案,但我可以告訴你最糟糕的是什么?!彼f,“最糟糕的情況,是選擇相信設(shè)計系統(tǒng)的人的話,尤其是當他們試圖向你推銷這個系統(tǒng)的時候?!?/p> 軟件工程師奧馬爾·卡齊
當卡齊開著他那輛特斯拉快要到帕洛斯維德斯牧場的時候,雖然沿途并不是高速路,但他再次啟動了Autopilot。
車輛自動行駛過陡峭懸崖時,系統(tǒng)正確地識別出前方的騎行者并決定超越他??删驮谝嚨臅r候,卡齊踩了剎車,讓那人在這之前騎到了更寬的路上。
他說要是有機會,他想看看車輛最后超過去會是怎樣的結(jié)果,但他不能這么做,并希望機器最終也能做和他相同的操作。
隨著特斯拉在全球道路上的普及,卡齊似乎已經(jīng)接受了統(tǒng)計學上的確定性——Autopilot造成的死亡人數(shù)將會增加。
“最大的公關(guān)噩夢還沒來呢?!彼赋觯皩崿F(xiàn)目標的路只有一條,想走過去就必須經(jīng)過雷區(qū)。”(文章&圖片來源:Bloomberg,作者:Zachary Mider)
評論列表
文章我看過,感覺說的挺對的,有問題的話可以多去看看
被拉黑了,還有希望么?
被拉黑了,還有希望么?
求助