蓋世汽車訊 自動駕駛汽車想要安全地行駛,就需要“了解”周圍的事物。自動駕駛汽車可以利用現(xiàn)有的交通狀況圖像進行練習(xí),從而學(xué)習(xí)這一能力。據(jù)外媒報道,埃因霍溫理工大學(xué)(TU/e)研究人員Panagiotis Meletis將各種交通圖像集合在一起,可提升自動駕駛汽車的感知能力。
(圖片來源:techxplore.com)
那個戴著帽子的年輕人是在等人,還是打算過馬路?一個球滾到街上,會不會有孩子跑來追它?那輛藍色的小汽車是要并排泊車,還是要開走?在城市駕駛時,我們需要經(jīng)常評估這些情況。因此,自動駕駛汽車面臨的主要挑戰(zhàn)之一是根據(jù)“看到”的周圍事物,得出正確結(jié)論,從而預(yù)測意外情況。
Panagiotis Meletis解釋稱,要更深入地了解交通狀況,首先要確定自動駕駛汽車從攝像頭接收到的圖像中的各種物體。在專注于圖像識別的視頻編碼與架構(gòu)(Video Coding & Architectures)研究小組中,Meletis參與了移動感知系統(tǒng)實驗室(Mobile Perception Systems Lab)的一個項目:自動駕駛汽車定期前往TU/e校園進行測試駕駛?!八枰軌蚺袛嗫吹降氖羌t綠燈、樹、行人、自行車,還是車輛。”在更詳細的層面上,它還需要能夠識別車輪或四肢,因為這些能指示運動方向和道路使用者的意圖。
我們可為人工神經(jīng)網(wǎng)絡(luò)(AI)提供大量交通情況圖像,其中所有相關(guān)元素都被標(biāo)記,來教會其分析交通場景。然后,通過給AI輸入新的、未標(biāo)記的圖像來衡量其理解水平。如下圖所示,不同的顏色展示了AI是如何解讀圖像的:汽車是藍色的,自行車是暗紅色的,人的手臂是橙色的,軀干是灰色的。
(圖片來源:techxplore.com)
在研究開始時,只有少數(shù)公開可用的圖像數(shù)據(jù)集描述交通場景,Meletis表示,“現(xiàn)在有很多數(shù)據(jù)集,每個都有自己的重點。想想那些包含交通燈、自行車手、行人等的圖像。”但是每個數(shù)據(jù)集都被標(biāo)記為不同的系統(tǒng)。Meletis在更高的語義層面上,將這些標(biāo)注連接起來。“例如,汽車、公共汽車和卡車都屬于‘車輛’范疇。騎行者、摩托車手和駕駛員都屬于‘駕駛員’。在這些定義的幫助下,我能夠使用所有可用數(shù)據(jù)集同時訓(xùn)練AI,產(chǎn)生更好的效果。”
在2018年計算機視覺和模式識別大會組織的一個研討會上,其中一項比賽是關(guān)于“強大視覺(robust vision)”,需要對有視覺影響的交通圖像進行分析,如大雨或過度暴露在陽光下?;诎S多此類低質(zhì)量圖像的數(shù)據(jù)集,Meletis開發(fā)的系統(tǒng)表現(xiàn)優(yōu)于其他參與者。Meletis還表示,過去的一年,他們成功地編譯了兩個新的數(shù)據(jù)集,用于整體場景理解。