鉅大LARGE | 點擊量:707次 | 2018年09月11日
自動駕駛汽車功能真的不像宣傳的那么強大?
懷疑論者表示,完全自動駕駛可能比想象的更遙不可及,只是業(yè)界不愿承認罷了。
如果你真相信首席執(zhí)行官們說的話,完全自動駕駛的汽車可能再過幾個月就會問世。2015年,埃隆?馬斯克預(yù)測到2018年完全自動駕駛的特斯拉會面市;谷歌也是如此。Delphi和MobileEye的L4系統(tǒng)目前定于2019年推出,同年Nutonomy計劃在新加坡的街道上部署數(shù)千輛無人駕駛的出租車。通用汽車(GM)將在2019年量產(chǎn)完全自動駕駛的汽車,沒有方向盤,駕駛員也無法干預(yù)。這些預(yù)測背后都有真金實銀在支撐,豪賭軟件能夠不辱使命,功能像宣傳的那么強大。
乍一看,完全自動駕駛似乎比以往任何時候都更觸手可及。Waymo已經(jīng)在亞利桑那州一些有限但公開的道路上測試汽車。特斯拉及其他眾多模仿者已經(jīng)在出售功能有限的自動駕駛系統(tǒng)(Autopilot),一旦發(fā)生任何意外情況,依賴駕駛員干預(yù)。已發(fā)生過幾起事故(有些還是致命的);但業(yè)界普遍認為,只要系統(tǒng)不斷改進,我們離根本不必有人干預(yù)不會太遠。
但是完全自動駕駛汽車這個夢想可能比我們想象的更遙不可及。AI專家們越來越擔(dān)心,自動駕駛系統(tǒng)能可靠地避免事故至少還要再過幾年,甚至再過幾十年。由于自我訓(xùn)練的系統(tǒng)很難應(yīng)對現(xiàn)實世界的混亂局面,像紐約大學(xué)的加里?馬庫斯(GaryMarcus)這些專家準備好了對預(yù)期進行一番痛苦的重新調(diào)整,這番糾正有時被稱為“AI寒冬”。這種延遲可能給依賴自動駕駛技術(shù)的公司帶來災(zāi)難性后果,讓整整一代人體驗不到完全自動駕駛。
不難理解為什么汽車公司對自動駕駛持態(tài)度樂觀。在過去的十年間,深度學(xué)習(xí)已經(jīng)在AI和技術(shù)行業(yè)帶來了幾乎無法想象的進展;深度學(xué)習(xí)這種方法使用層次化的機器學(xué)習(xí)算法,從海量數(shù)據(jù)集中提取結(jié)構(gòu)化信息。深度學(xué)習(xí)支持谷歌搜索、Facebook新聞源(NewsFeed)、對話式語音/文本轉(zhuǎn)換算法以及會下圍棋的系統(tǒng)。在互聯(lián)網(wǎng)之外,我們使用深度學(xué)習(xí)來檢測地震、預(yù)測心臟病并標記拍攝鏡頭中的可疑行為,還有另外無數(shù)原本不可能實現(xiàn)的創(chuàng)新。
充電溫度:0~45℃
-放電溫度:-40~+55℃
-40℃最大放電倍率:1C
-40℃ 0.5放電容量保持率≥70%
但深度學(xué)習(xí)需要大量的訓(xùn)練數(shù)據(jù)才能發(fā)揮作用,包含算法會遇到的幾乎每一個場景。比如說,GoogleImages等系統(tǒng)擅長識別動物,只要有訓(xùn)練數(shù)據(jù)給它們展示每種動物長的樣子。馬庫斯將這種任務(wù)稱之為“內(nèi)插”(interpolation),對所有標記為“豹貓”的圖像進行調(diào)查,從而確定新圖片是否屬于豹貓這一類。
工程師們可能在數(shù)據(jù)來自何處以及如何組織數(shù)據(jù)方面另辟蹊徑,但這對某種算法能覆蓋多廣的范圍施加了嚴格的限制。同樣的算法無法識別豹貓,除非它見過成千上萬張豹貓的照片――即使它見過家貓和美洲虎的照片,并且知道豹貓介于這兩種動物之間。這個過程名為“泛化”(generalizaTIon),需要一套不同的技能。
長期以來,研究人員認為自己可以借助合適的算法改進泛化技能,但最近的研究表明,傳統(tǒng)深度學(xué)習(xí)在泛化方面比我們想象的還要糟糕。一項研究發(fā)現(xiàn),傳統(tǒng)深度學(xué)習(xí)系統(tǒng)面對一段視頻的不同幀時,甚至難以泛化,只要視頻背景出現(xiàn)小小的變化,就會將同一只北極熊標記為狒狒、貓鼬或黃鼠狼。由于每個分類基于總共幾百個因素,照片哪怕小小的變化也可能完全改變系統(tǒng)的判斷,其他研究人員已在對抗數(shù)據(jù)集中利用了這一點。
馬庫斯提到聊天機器人熱潮就是炒作遭遇泛化問題的最新例子。他說:“2015年有廠商向我們承諾推出聊天機器人,但它們沒有任何好處,因為這不僅僅是收集數(shù)據(jù)的問題。”你在網(wǎng)上與某人交談時,不僅僅想要對方復(fù)述之前的談話。你希望對方回應(yīng)你說的話,利用更廣泛的對話技能作出專門針對你的回應(yīng)。深度學(xué)習(xí)根本搞不出這樣的聊天機器人。一旦最初的炒作退潮,許多公司對聊天機器人項目失去了信心,現(xiàn)在只有個別公司還在積極開發(fā)中。
這讓特斯拉及其他自動駕駛公司面臨一個可怕的問題:自動駕駛汽車會像圖像搜索、語音識別及其他AI成功故事那樣變得越來越好?還是會像聊天機器人那樣遇到泛化問題?自動駕駛是一個內(nèi)插問題還是泛化問題?駕駛多么難以預(yù)測?
現(xiàn)在要知道結(jié)果還為時過早。馬庫斯說:“無人駕駛汽車就像我們不知道答案的科學(xué)實驗?!蔽覀冎皬膩頉]有實現(xiàn)過這個級別的自動駕駛,所以我們不知道它是哪種類型的任務(wù)。如果只是識別熟悉的對象和遵守規(guī)則,那么現(xiàn)有技術(shù)應(yīng)該能勝任任務(wù)。不過馬庫斯擔(dān)心,在事故多發(fā)的場景下安全駕駛可能比想象的來得復(fù)雜,只是業(yè)界不想承認罷了?!爸灰钊梭@訝的新狀況出現(xiàn),那么這對于深度學(xué)習(xí)來說不是一件好事?!?/p>
我們已有的實驗數(shù)據(jù)來自公共事故報告,每一份報告都提出了某個不同尋常的難題。在2016年的一場致命車禍中,一輛特斯拉ModelS全速撞上了一輛白色牽引式掛車的尾部,原因是很高的掛車底盤和刺眼的陽光反射讓車子備感困惑。3月份,一輛自動駕駛的優(yōu)步汽車撞死了一名推著自行車的女子,當時這名女子正穿過一條未經(jīng)授權(quán)的人行橫道。據(jù)美國國家運輸安全委員會(NTSB)的報告顯示,優(yōu)步的軟件將這名女子誤識別成不明物體,然后誤識別成汽車,最后誤識別成自行車,每次都更新預(yù)測。在加利福尼亞州的一次撞車事故中,一輛ModelX在撞擊前一刻加速駛向障礙物,至今原因仍然不明。
每次事故似乎都是極端情況,這是無法要求工程師們提前預(yù)測的那種情況。但幾乎每一起車禍都涉及某種不可預(yù)見的場景;如果沒有泛化的能力,自動駕駛汽車將不得不面對這每一個場景,就好像這是頭一次。結(jié)果就是一連串僥幸事故:隨著時間的推移,這些事故并不變得不那么常見或不那么危險。對于懷疑論者來說,手動脫離報告已表明了這種情形,已經(jīng)到了止步不前的窘境。
吳恩達是百度前高管,Drive.AI的董事會成員,也是業(yè)界最著名的推手之一。他認為,問題不在于建造一套完美的駕駛系統(tǒng),而是培訓(xùn)旁觀者來預(yù)測自動駕駛行為。換句話說,我們可以為汽車確保道路安全,而不是反過來。作為一種不可預(yù)測的情況,我詢問他是否認為現(xiàn)代系統(tǒng)可以應(yīng)對踩彈簧單高蹺的行人,即使之前從來沒有見過。吳恩達告訴我:“我認為許多AI團隊可以應(yīng)對人行橫道上踩著彈簧單高蹺的行人。話雖如此,在高速公路中央踩彈簧單高蹺確實很危險。”
吳恩達說:“我們應(yīng)該與政府合作,要求人們遵紀守法、為他人考慮,而不是設(shè)計解決彈簧單高蹺問題的AI。安全不僅僅與AI技術(shù)的質(zhì)量有關(guān)。”
深度學(xué)習(xí)不是唯一的AI技術(shù),許多公司已經(jīng)在探究替代方案。雖然技術(shù)在業(yè)內(nèi)受到嚴加保護(只要看看Waymo最近起訴優(yōu)步的官司),但許多公司已轉(zhuǎn)向基于規(guī)則的AI,這種較古老的技術(shù)讓工程師們可以將特定的行為或邏輯硬編碼到其他方面自主的系統(tǒng)中。它并不具備僅僅研究數(shù)據(jù)就可以為自己行為編程的同樣能力,這正是深度學(xué)習(xí)如此令人興奮的原因,但它讓公司可以避免深度學(xué)習(xí)的一些局限性。但由于感知的基本任務(wù)仍然受到深度學(xué)習(xí)技術(shù)的深遠影響,很難說工程師們隔離潛在的錯誤會多成功。
身為Lyft董事會成員的風(fēng)險資本家安妮?三浦康(AnnMiura-Ko)表示,她認為問題的一方面在于對自動駕駛汽車本身寄予厚望,將完全自動駕駛之外的任何系統(tǒng)都歸入為失敗。三浦康說:“期望自動駕駛汽車從零進入到L5是期望不匹配,而不是技術(shù)失敗。我認為所有這些微小改進都是邁向完全自動駕駛這條道路上的非凡成就?!?/p>
不過,目前不清楚自動駕駛汽車在目前這種窘境下保持多久。像特斯拉的自動駕駛系統(tǒng)這樣的半自動產(chǎn)品智能化程度很高,足以應(yīng)對大多數(shù)情形,但是如果發(fā)生任何不可預(yù)測的情況,還是需要人為干預(yù)。果真出岔子時,很難知道究竟怪汽車還是怪駕駛員。對于一些評論人士來說,這種人機混合體可能不如人類駕駛員來得安全,即使錯誤很難完全歸咎于機器。蘭德公司的一項研究估計,自動駕駛汽車必須在沒有一起死亡事故的情況下行駛2.75億英里,才能證明它們和人類駕駛員一樣安全。與特斯拉的自動駕駛系統(tǒng)相有關(guān)的首例死亡事件發(fā)生在該項目行駛了約1.3億英里處,遠低于這個標準。
但由于深度學(xué)習(xí)是汽車如何識別物體并決定應(yīng)對的關(guān)鍵,降低事故率可能比看起來更難。杜克大學(xué)教授瑪麗?卡明斯(MaryCummings)提到今年早些時候?qū)е乱幻腥怂劳龅膬?yōu)步事故時說:“這不是一個很容易被隔離的問題。感知-決策周期常常相互關(guān)聯(lián),就像撞死行人的事故中那樣。由于感知方面存在模糊性,做出了什么操作都不采取的決定;又由于從傳感器得到了太多的誤警報,緊急制動系統(tǒng)被關(guān)閉?!?/p>
那起車禍事故以優(yōu)步暫停夏季的自動駕駛測試工作收場,這對于計劃推廣測試的其他公司來說是不祥之兆。在這個行業(yè),許多公司競相獲取更多的數(shù)據(jù)來解決問題,以為行駛里程最多的公司會構(gòu)建最強大的系統(tǒng)。但是雖然許多公司覺得只是數(shù)據(jù)問題,馬庫斯卻認為解決起來困難得多。馬庫斯說:“它們只是使用擁有的技術(shù),希望它會起作用。它們依賴大數(shù)據(jù),因為這是他們手頭擁有的利器,但沒有任何證據(jù)表明它讓你可以達到我們所需的那種精確度?!?/p>
上一篇:“電動汽車污染論”怎么辦?