7月1日—2日,由蓋世汽車主辦的“2021第四屆全球自動駕駛論壇” 于上海隆重召開。本次論壇主要聚焦自動駕駛關鍵技術,如自動駕駛感知、智能駕駛域控制器、芯片、計算平臺、無人駕駛不同的落地場景等話題展開討論,以促進自動駕駛相關技術進一步發(fā)展、完善。下面是IPG Automotive中國總經理黃曉帶來主題演講:“無人駕駛的仿真開發(fā)”。
IPG Automotive中國總經理黃曉
感謝大家回來,下一位演講嘉賓是我本人,我是IPG Automotive中國總經理——黃曉,接下來我想闡述的是:虛擬仿真是如何助力主機廠和tier1進行仿真開發(fā)和應對系統(tǒng)復雜性。虛擬開發(fā)需要什么?需要關注什么?IPG能提供什么?從模型在環(huán),環(huán)境在環(huán),車輛在環(huán),無縫開發(fā)給大家提供什么樣的幫助?以及HPC和云方面的應用也是最近比較火熱的話題。
如何確認無人駕駛系統(tǒng)可達到預期功能?作為主機廠需要做很多實驗。那這個實驗怎么做?如果沒有辦法用實車進行操作,那么把這些危險場景,邊緣場景在一個虛擬場景里面進行仿真和測試,可能會是比較好的一個解決方案。
我們IPG就提供這樣的解決方案,我們的主力產品CarMaker相信大家多少有些了解,那么在無人駕駛平臺上面,客戶期待CarMaker能做什么呢?第一個是虛擬樣車,這個有別于傳統(tǒng)的車輛動力學模型集,CarMaker提供的是虛擬樣車,它含有很好的車輛動力學模型,但更超越車輛動力學模型,它能集成物理傳感器,軟件棧和各種接口。第二個,希望它從融合到功能實現(xiàn)這樣一個完整模型鏈的支持。第三個,可擴展性,適用性。第四個,實時性的能力。如何把車輛動力學物理傳感器模型全部在實時平臺和環(huán)境下面把它使用起來,目前來說,CarMaker是做得最好的。最重要的是我們有眾多的客戶和使用群體來幫助我們背書,例如說華為。
簡單做一個宣傳,IPG產品除了大家比較了解的軟件,我們有自己實時仿真平臺,同時也提供仿真服務,但是基本上我們不太會涉及到測試服務,主要是幫助客戶搭建和創(chuàng)新在開發(fā)流程和仿真方法和應用上面。
虛擬樣車,首先要有一個非常好的可參數(shù)化的車輛動力學模型,CarMaker從誕生之初(1984)在該領域一直處于領先的地位。在最新的版本里面,我們也加入了MBS模型,所有子系統(tǒng)的分類與真實樣車是一樣的。
我們的模型在參數(shù)化做完之后,可以通過我們提供的一系列測試標定的方法來跟整車真實表現(xiàn)進行對比。車輛模型不單單是車輛動力學,它跟實車一樣,可以集成待測對象,可以是C代碼,可以是ECU,亦可以是中央計算單元。
有了車輛模型之后,我們還希望它可以直接集成AD算法(AD軟件棧),它的工作流基本上是由CarMaker提供感知和數(shù)據(jù)生成,提供這些傳感器模型,V2X數(shù)據(jù),GPS數(shù)據(jù),嵌入HD,把真實的data給到用戶無人駕駛的軟件棧,再輸入信號,控制信號給到控制棧進行控制。這里可以看一下Demo。
—VCR—
這里面有兩個點需要注意的,第一,視頻中的車輛在運行過程當中功能都是OK的,但它的制動比較差,它在左轉,直線加速、減速時的抖動是非常厲害的。這就是我剛才說的,無人駕駛開發(fā)做車輛動力學的重要性。第二,我們用物理傳感器模型搭建了一個傳感器,然后通過不同的通訊協(xié)議進行對接,這些工作IPG中國是可以幫助到客戶的,我們有本地的技術團隊幫助客戶做集成的工作。
CarMaker不僅可以搭建車輛動力學的模型,我們最新還發(fā)布了MovieNX渲染工具。大家對于一個渲染的工具有什么的期待呢?首先,它可以實現(xiàn)真實或者接近照片級的顯示效果。其次,它跟我的物理傳感器模型是完全集成化的。最后,它可以集成智能交通的仿真,3D模型和相應的庫。
我們來看一下,這段影片給大家展示的是MovieNX可達到最佳的渲染效果。
—VCR—
這是兩個多月前推出的渲染工具。接下來大家更關心的可能是我們的傳感器,簡而言之CarMaker涵蓋了所有類型的傳感器,激光雷達,毫米波雷達,攝像頭,超聲波,這些所有的模型都提供不同級別的精度,從最低的理想傳感器模型到半物理傳感器模型,再到純物理傳感器模型,有一點需要強調的是CarMaker所有的模型,包括物理傳感器模型都是可以在實時環(huán)境下面,就是說跟任何一個實時硬件平臺進行通訊。我們再簡單的通過一個視頻來給大家演示一下。
—VCR—
這里我需要補充兩點,所有的物理模型都可以按照你自己的要求去配置,包括傳輸協(xié)議,傳輸接口。
講完Scenario,對于測試人員來說比較關心的是如何用簡單辦法獲得測試用例和測試場景。我總結了幾個,第一個是手動創(chuàng)建,CarMaker提供一個手動編輯器(Manual)。第二種是基于高清地圖的導入以及同時在這段地圖上面采集到的所有交通場景?,F(xiàn)在服務商也在做同樣的事情,我們跟這些服務商都有類似的合作接口。第三種是Open X的導入,作為場景的道路,CarMaker是非??斓脑谶m應這樣的變革,我們現(xiàn)在可以原生導入1.5以上所有的版本,簡而言之,我們現(xiàn)在已經有初步的版本可以輕松把它導入到CarMaker。
ASAM現(xiàn)在是發(fā)布了OSC1.0,一個是他們在做OSCX,一個是2.0發(fā)布,我們OSA1.0版本基本上可以做到輕松導入。OSC2.0我們也在做預研,很快我們也會去適用于它。
最后大家可能比較關心的一個話題是CarMaker集成能力。例如, 它可以集成ROS,C/C++,Python,F(xiàn)mi等等,包括不同的仿真工具,有HD Map,有客戶使用第三方的工具,以及客戶自研的工具,我們可以做一個開放性的集成,包括仿真流,工作流,產品生命周期管理的工具,自動化工具,數(shù)據(jù)分析。我們意圖是基于CarMaker集成平臺圍繞大家不同的工具和能力給客戶提供一個完整的生態(tài)環(huán)境。
前面講到CarMaker在軟件方面所提供的功能,那如何把這些功能應用到HIL環(huán)境里面呢?因為無人駕駛HIL也是很熱的話題。做無人駕駛可能涉及到很多東西,最終待測對象是中央計算平臺(高性能計算平臺),如何將他們模擬出來?CarMaker提供不同級別的傳感器,它可以去做直接物理傳感器模型給到待測對象,或者說做半真實的擬真的,比如說毫米波雷達模擬器,超聲波模擬器,攝像頭視頻黑箱等等各種方案我們均有提供,最終我們把這些給到計算平臺,計算平臺再給出控制信號,最終形成一個完整的閉環(huán)。
大家可能會問,我現(xiàn)在有這么多傳感器,例如說有20-30個傳感器,怎么在一個系統(tǒng)里面把它同時同步實時和支持呢?我們有GPU分布式的功能,把不同的傳感器指定分布到不同的GPU上面。
比如這個案例用14個Camera,5個激光雷達,6個毫米波雷達,12個USS,這里大部分用到物理傳感器模型,客戶那邊用來8臺上位機,16款8080顯卡,我們幫它分布,保證傳感器實時性的運行,最終跟待測對象,甚至外延駕駛模擬器,底盤控制系統(tǒng),甚至加上三電形成整車的測試解決方案。
下面用幾分鐘講一下云解決方案,這是騰訊云跟我們做了一個聯(lián)合的解決方案。
—VCR—
因為時間關系,我就不講太多了。這里面騰訊提供的場景也是可以直接導入到CarMaker。我們不但可以跟騰訊合作,我們其實是開放的平臺,跟AWS,華為等等都可以進行合作,我們可以幫助客戶進行適配。最后總結視頻3分鐘,請大家觀看。
—VCR—
在場景里面配置各種各樣的傳感器模型,從感知到數(shù)據(jù)的提取,它還可以提供自動的語義分割。交通情況預測路徑的規(guī)劃,用戶可以任意延展,通過云和本地的HPC進行快速驗證,謝謝大家。