影響全自動汽車的發(fā)展的一個關(guān)鍵因素是車輛能否在周圍環(huán)境中可靠地導航,并對不可預見的事故迅速作出反應。據(jù)外媒報道,德國馬克斯普朗克智能系統(tǒng)研究所(Max Planck Institute for Intelligent Systems)團隊表明,基于深度神經(jīng)網(wǎng)絡(luò)的運動分析方法很可能用于未來自動駕駛汽車,而這些方法可能會被用來“攻擊”神經(jīng)網(wǎng)絡(luò)的小模式所混淆。
自動駕駛或半自動駕駛汽車通過傳感器感知周圍環(huán)境。為了分析場景,制造商使用光流法(optical flow),即像素在視頻幀之間的2D運動。
(圖片來源:馬克斯普朗克研究所)
光流描述了場景中的各種運動。開車或步行時,樹木、房屋或塔架等靜態(tài)物體似乎會朝相反的方向移動。物體的運動速度可以使我們判斷與其之間的距離,例如附近的樹會迅速消失在身后,而遠處的物體,如云或山似乎是靜止的。
為了分析各種運動,車載攝像頭快速連續(xù)地記錄大量的場景圖像。計算機使用復雜的數(shù)學方法,根據(jù)圖像之間的差異推斷單個物體的運動。計算機為每個像素計算速度矢量,表示像素在圖像中移動的速度和方向。其中很重要的一點是,車輛的運動和周圍物體的運動都會產(chǎn)生光流。因此,車載計算機必須能夠?qū)⒆陨磉\動與其他物體的運動區(qū)分開來,這是一項非常復雜的任務(wù)。
機器學習的最新進展催生了更快更好的計算此種運動的方法。該研究所的聯(lián)合項目證明,這些方法容易受到攻擊。例如,一個簡單的、色彩鮮艷的圖案偶然或故意出現(xiàn)在圖像數(shù)據(jù)中。即使圖案不移動,也會導致深度神經(jīng)網(wǎng)絡(luò)計算錯誤,網(wǎng)絡(luò)會突然計算大部分場景在往錯誤的方向移動。有時彩色圖案甚至會破壞整個系統(tǒng),這是非常危險的。
目前,市場上現(xiàn)有車輛受影響的風險較低。不過,為了安全起見,研究人員告知了一些正在開發(fā)自動駕駛車型的汽車制造商,表明光流網(wǎng)絡(luò)可能遭受攻擊。該項目的目標是警告自動駕駛汽車制造商這一潛在威脅,并開發(fā)出應對攻擊的新方法。
為此,研究人員構(gòu)建了5個彩色圖塊來攻擊這些系統(tǒng)。事實證明,只需幾個小時的計算就可以相對容易地構(gòu)建出此種模式。在測試運行期間,研究人員將這些顏色圖案放置在場景中的隨機點上,就能輕易干擾所有神經(jīng)網(wǎng)絡(luò)。在測試中,即使是占整個圖像不到1%的一小塊色塊也能影響一半的圖像區(qū)域,足以使系統(tǒng)混亂。色塊面積越大,后果就越嚴重。
研究人員使用這些色塊來分析網(wǎng)絡(luò)中正在發(fā)生的事情,并發(fā)現(xiàn)網(wǎng)絡(luò)中人們沒有意識到的系統(tǒng)偏差。這些神經(jīng)網(wǎng)絡(luò)受人類大腦工作方式啟發(fā),輸入數(shù)據(jù)通過加權(quán)和簡單計算在網(wǎng)絡(luò)中進行分析。系統(tǒng)權(quán)重經(jīng)過訓練,使網(wǎng)絡(luò)學會輸出場景的正確運動,而網(wǎng)絡(luò)失誤類似于人眼的視覺錯覺。
神經(jīng)網(wǎng)絡(luò)本身無法改變所學習的優(yōu)先級,這可能導致錯誤判斷。然而,人們可以對其進行再訓練,使其不再被錯覺所欺騙。研究人員進行了簡單的測試,證明神經(jīng)網(wǎng)絡(luò)仍然需要改進。他們給系統(tǒng)展示了兩個相同的圖像。盡管兩者都沒有運動或變化,但網(wǎng)絡(luò)識別出現(xiàn)了差別。這些問題表明光流網(wǎng)絡(luò)對于自動駕駛汽車而言還不夠成熟。
如果神經(jīng)網(wǎng)絡(luò)非??煽浚瑢⑹棺詣玉{駛更加安全。一方面,汽車不僅使用攝像頭,還使用其他傳感器進行導航。另一方面,越來越多的自動駕駛車輛會相互通信,車載計算機能夠更容易地分析街道場景。在這種情況下,汽車不僅依賴自身傳感器信號,而且還接收其他車輛的位置和速度的數(shù)據(jù)。盡管披露了自動駕駛技術(shù)的弱點,但研究人員仍然認為自動駕駛可以讓道路更安全,因為90%的事故都是人為失誤造成的。