12月1日-2日,由蓋世汽車主辦的“2020第二屆車聯(lián)網(wǎng)與智能座艙大會”隆重召開。本次會議主要圍繞車聯(lián)網(wǎng)、座艙域控制器、車載操作系統(tǒng)OS、OTA、座艙顯示等車聯(lián)網(wǎng)及智能座艙領(lǐng)域熱門話題展開探討,共謀產(chǎn)業(yè)未來發(fā)展之路。下面是百度車聯(lián)網(wǎng)事業(yè)部AR方向資深專家鄧蘇南在本次大會上的演講。
百度車聯(lián)網(wǎng)事業(yè)部AR方向資深專家 鄧蘇南
非常感謝張總的介紹。今天我想跟大家分享一下自動駕駛時代HUD的技術(shù)展望,包括HUD的價值是什么?百度能提供的價值是什么?這個行業(yè)趨勢是什么?百度的優(yōu)勢和規(guī)劃又是什么?
先來看一下行業(yè)趨勢,其實前面張總已經(jīng)介紹了HUD的硬件,我稍微講一講C-HUD、W-HUD和AR-HUD這幾者大概的差別。我們的想法跟大家是一致的,C-HUD肯定是一個階段性的東西,,屏也小、展現(xiàn)的信息也少。W-HUD能展示的東西多一點,是目前的主流產(chǎn)品,但依然是一個過渡產(chǎn)品,未來AR-HUD將是最終的發(fā)展方向。
但這三款HUD為什么會存在?它們給用戶帶來了怎么樣的價值?這個是需要我們?nèi)ド疃绕饰龅?,W-HUD成像的范圍很小,距離也只有4到5米之間,但是寶馬的W-HUD布局了5年,從2013年開始布局到2018年業(yè)內(nèi)首發(fā),一開始他們以為只有1%的選配率,但事實上高達(dá)40%到50%,而且用戶用過的都說好,好評率達(dá)到了99%。這個可能跟大家的印象不一樣,之前大家覺得一定要全屏,才能實現(xiàn)用戶的終極價值。
但是為什么W-HUD看起來很小,能呈現(xiàn)的信息也很少,卻也能給用戶提供價值?這給我們的啟發(fā)是什么?我們分析了下,發(fā)現(xiàn)W-HUD雖然小,但是它解決了用戶要低頭看手機或者屏幕的問題,將用戶的注意力集中在駕駛上,它能為用戶提供最基礎(chǔ),也最核心的導(dǎo)航信息。這個啟示告訴我們,W-HUD已經(jīng)能夠給客戶創(chuàng)造價值。
W-HUD的量產(chǎn)情況我們也做了一些調(diào)研。讓我們來看看它的趨勢是什么?車型正從高端向低端下放,寶馬原來是7系才搭載,現(xiàn)在下放到5系、3系。2018到2019年之間,我們又看到另外一些豪華車品牌開始上W-HUD,從2019到2020年,國內(nèi)的一些品牌也開始上W-HUD。所以在未來幾年W-HUD還會是主流,并進(jìn)入全面開花的階段,它的趨勢是從高配向低配,從選配走向標(biāo)配。現(xiàn)在很多人提到AR-HUD,就覺得應(yīng)該是全屏或者至少30度到40度,但是如果從W-HUD來看的話,其實10*4度的FOV是夠的。我們要思考的是在現(xiàn)有的FOV和成像距離參數(shù)下,能夠給用戶提供怎么樣的信息和價值?
AR-HUD的用戶價值又在于什么呢?我覺得HUD取代儀表屏是必然的趨勢。剛才黃總講得非常好,車內(nèi)的屏很多就好嗎?功能很多就好嗎?是不是功能和亮點越多越好?那什么叫做好?在這里講一下我們這邊的理解,我覺得精準(zhǔn)才是好,什么叫精準(zhǔn)?當(dāng)你需要的時候把信息推送給你,并且只推送給你想要的信息。我們在車內(nèi)如果放很多個屏,用的次數(shù)和頻率又是怎么樣的,你夠不夠得著、用得到?精準(zhǔn)的話,就是為用戶及時的提供有用的信息,高效簡潔,又不對用戶造成干擾。
AR-HUD和W-HUD的差別在哪里?這里有寫到兩點,因為FOV會大、呈現(xiàn)的信息會大,所以這個信息量大,精準(zhǔn)提醒是它一個很大的特點。第二點就是有強交互性。上面一張講的是你能獲取到什么,是講的信息的概念。昨天聽到一位嘉賓說智能駕艙的核心價值是信息和服務(wù),但實際上這兩個歸根到底還是信息,只是你拿到這個信息需要做什么決策,是你做決策還是汽車做決策,這是一個階段的問題。如果是你做決策,那可能是L2級別或者是L2+級別的,如果是車做決策,可能是L4級別的自動駕駛。所以我們講的是這兩點,一個是信息,一個是交互。
我們也講到了智能,什么叫智能?智能最初的概念是像人一樣有感官、有思考,智能的體現(xiàn)就是交互。如果人主動獲得信息,那很容易理解是不智能的;但如果我們可以通過一些交互,比如說你看一眼或者是你說一句話,汽車就能明白你,減少你的動作,這個就是指智能交互的概念。
AR-HUD的量產(chǎn)情況大家也比較熟知了,就是奔馳的S級,另外就是大眾、一汽、廣汽和奇瑞,它的趨勢是各大車廠都已經(jīng)在布局,而且是從POC走向量產(chǎn),布局的時間一般是3到5年,包括奔馳這一款也布局了蠻久,而且是硬軟件一起規(guī)劃。就像剛剛黃總說的,車身在設(shè)計階段就要做一些改造,所以也想跟線上線下的各位車廠大大們說,如果你們有HUD的規(guī)劃,那現(xiàn)在就要開始了,而且現(xiàn)在就要開始去定點選型,因為這個東西越早進(jìn)入越有發(fā)揮空間。
我們對奔馳的案例做一個分析,因為百度對這個方面還是非常關(guān)注的,據(jù)我們所知奔馳是大陸提供的軟硬件,它的硬件方案是DLP,體積很大,達(dá)到了27L。所以奔馳量產(chǎn)最大的意義是讓車廠不再糾結(jié)于體積,體積可能不是個問題,我們先把它實現(xiàn),能夠引領(lǐng)一個時代的發(fā)展,這個是比較大的意義。那是不是已經(jīng)到來呢?未來1到2年,隨著量產(chǎn)的出現(xiàn),它會慢慢鋪開。
這是我們對奔馳發(fā)布的視頻做的一個功能性的解析,里面有ADAS功能、信息提示功能以及方向指引等等。同時我們把奔馳發(fā)布的這一款視頻的軟件跟百度的功能做了對比,可以說奔馳有的我們都有,奔馳有它的優(yōu)點,但是百度也有自己的優(yōu)勢。
接下來看一下行業(yè)布局,軟硬件的布局趨勢是怎么樣的?在這個方面的探索,我相信百度是走在前面的,我們只想做最前沿的事情。在硬件上我粗淺按照投影方案分為傳統(tǒng)方案和第二代的全息光波導(dǎo)方案,傳統(tǒng)的方案優(yōu)點是技術(shù)成熟、容易實現(xiàn),但缺點也很大。全息光波導(dǎo)方案的優(yōu)點是體積小,是未來發(fā)展趨勢,但是技術(shù)不怎么成熟。如果我們現(xiàn)在談量產(chǎn),或者說未來3到5年車廠能不能上HUD,我相信幾何方案是比較好的選擇。
對于這兩代HUD的分析,我們認(rèn)為第一代HUD的成像是可控的,而且原理簡單,發(fā)展相對成熟,應(yīng)該是未來3到5年主流產(chǎn)品的方式,而且奔馳的量產(chǎn)體積很大,其實我們車上也可以不必糾結(jié)體積的問題。第二代光波導(dǎo)方式還有全息薄膜方式,發(fā)展不成熟,量產(chǎn)還有一定的距離,但各大企業(yè)積極布局,像大陸公司收購了歐洲的一家光波導(dǎo)的企業(yè),阿里也有投資瑞士的WAYRAY。
再來看一下軟件的趨勢, HUD的核心價值是什么呢?第一點就是生態(tài)智能化,首先是信息的展現(xiàn),昨天也有嘉賓把手機類比車機,這個也同樣的。HUD可以類比一下智能手機發(fā)展,智能手機最開始只有打電話、收發(fā)短信的功能,但是現(xiàn)在很少用打電話和發(fā)信息功能,我們用的是手機的生態(tài),包括娛樂,聽歌、看視頻或者打游戲,這個是智能生態(tài)。HUD未來一定是以AR導(dǎo)航為基礎(chǔ)功能的一個生態(tài)化的載體,在這個載體之上,你可以擁有藍(lán)牙電話、音樂,還有一些小程序,可以進(jìn)行多樣化的信息推送,包括剛才講的精準(zhǔn)信息提醒,還有高效簡潔的HMI設(shè)計等等。
第二點就是交互智能化,獲取這些信息是自己手動點按獲得,還是它自然而然地給你推送,這有一個智能化的過程。剛才也有嘉賓講到智能化的核心,5個感官最重要的是聽覺和視覺,我們對此也很認(rèn)同,所以我們覺得語音操控和視覺操控是未來智能化交互的兩個重要發(fā)展方向。
跟大家分享一個小案例,在另外一些場合我講這個東西的時候有嘉賓提問說,你們怎么看L4自動駕駛階段HUD的價值?那我們就要想一個核心的問題,在L4階段駕駛員真正的需求是什么?就像我們坐公交車一樣,可能不需要親自開車,但希望對信息有所掌控,希望知道如果前面有一輛車過來有危險,車自動踩剎了,你要告訴我為什么;下一個路口到哪一個路口了,該左轉(zhuǎn)還是該右轉(zhuǎn),你要告訴我是不是要轉(zhuǎn)了,離目的地還有多遠(yuǎn)。所以即使是在L4自動駕駛階段,駕駛員一定會有的需求就是對信息的掌控。需要了解,可能不需要實時關(guān)注,但是我一抬頭需要知道我到了這個地方,也需要知道其它的一些生態(tài)信息,比如天氣,終點信息等等。
還有HUD大家應(yīng)該都知道,它只有在主駕位置看,這樣可以投射一些駕駛員覺得隱私性比較強的信息,有些客戶會問微信信息能不能投在上面?理論上是OK的,因為副駕和后駕位置都看不到HUD投射的信息。
所以AR-HUD的軟件比拼的是什么呢?是AI能力和導(dǎo)航能力。導(dǎo)航能力必不可少是因為它是一個基礎(chǔ)功能,你不可能一個手機沒有打電話的功能。 AI能力就是我們所說的生態(tài)智能化以及交互智能化的智能體現(xiàn)。
再看一看百度AR-HUD現(xiàn)狀和優(yōu)勢。其實我們AR-HUD發(fā)展的很早,我們在2018年就進(jìn)行了業(yè)界首發(fā),然后又進(jìn)行了好幾輪的迭代,我們在上面進(jìn)行了硬件升級,加了一個VPU,就是一塊專門處理圖片的芯片,利用這塊芯片我們可以加入ADAS功能。在這個基礎(chǔ)上,我們又做了多輪能力迭代,目前已經(jīng)交付了一個POC,以及一個POC轉(zhuǎn)量產(chǎn),還有多個量產(chǎn)項目在談。有朋友問我百度到底有沒有落地的產(chǎn)品?你們跟多少家車廠有合作?我們現(xiàn)在已經(jīng)跟數(shù)十家品牌進(jìn)行了深入的合作。
再講一下百度AR-HUD的優(yōu)勢,可以分為4個點:第一點就是AR導(dǎo)航能力,我們知道AR-HUD最基礎(chǔ)的其實是AR導(dǎo)航能力。我可以跟大家普及一下這幾個地圖之間的關(guān)系,基礎(chǔ)地圖決定了你AR導(dǎo)航能做功能的上限,而AR導(dǎo)航你能做到什么程度又決定了你AR-HUD的上限。AR導(dǎo)航我們迭代比較多,2018到2019年就有3個落地的量產(chǎn)項目,2019年也有3個落地量產(chǎn)項目。
第二點就是我們對AR-HUD這個特殊產(chǎn)品形態(tài)進(jìn)行了技術(shù)突破。AR-HUD特殊產(chǎn)品形態(tài)是什么意思呢?有人說你能不能把AR導(dǎo)航直接投射到AR-HUD上?不能,因為同樣的顏色,投射在室內(nèi)的屏幕上跟投射在擋風(fēng)玻璃上,視覺效果完全不一樣。在液晶屏幕上AR導(dǎo)航可以做半透明的效果,但是在AR-HUD上最好不要;在AR導(dǎo)航上可以做一些面狀信息還有一些很炫酷的效果,但在HUD上不行,因為要保證簡潔不遮擋視線?,F(xiàn)在業(yè)內(nèi)的一個共識就是, HUD顯示的信息不能過于復(fù)雜,否則遮擋視線會給用戶起到副作用。所以我們的產(chǎn)品都要在實車上實地跑一跑、測一測,因為你不知道你設(shè)計的東西投射到前擋風(fēng)玻璃上是怎樣的狀態(tài)。
第三個就是跟車廠的實戰(zhàn)項目里面去打磨我們的產(chǎn)品形態(tài)和用戶體驗。我們做的很多需求是來自項目的需求,而不是天馬行空的,因為我們發(fā)現(xiàn)越來越多的車廠跟我們有共同的認(rèn)知,就是要抓住用戶的核心體驗,AR是增強現(xiàn)實,在轉(zhuǎn)彎的時候要不要把轉(zhuǎn)彎的箭頭貼的跟那個彎一模一樣?這個重不重要?其實沒有那么重要,因為用戶要的是你告訴我該轉(zhuǎn)彎的時候轉(zhuǎn),實時性、精準(zhǔn)度比你轉(zhuǎn)彎指示的樣式更重要。所以我們其實是有優(yōu)先級的,這個評判標(biāo)準(zhǔn)就是看用戶的核心需求到底是什么,是打中他的要點還是錦上添花。另外我們深圳是有實車的,我們自己改裝了一輛車,上面硬軟件都有,我們會根據(jù)這個實車進(jìn)行一些迭代,在真實場景里面去做迭代,這個也比較有利于產(chǎn)品的開發(fā)。
第四點就是功能迭代或者產(chǎn)品迭代都離不開智能,但智能是需要技術(shù)沉淀的,百度在AI方面的技術(shù)沉淀有目共睹。另外我們有一個智能駕駛體驗中心,這個體驗中心提供了一些用戶調(diào)研,也給我們的產(chǎn)品設(shè)計提供了一些策略和建議,后面也會介紹這個部分。
先看一下AR導(dǎo)航產(chǎn)品,剛才講了AR導(dǎo)航是AR HUD這個產(chǎn)品形態(tài)的靈魂,是后續(xù)邁向L4階段的一個重要技術(shù)積累。第二是融合定位,百度做HUD軟件的優(yōu)勢在哪里?其實是在融合定位這一塊,因為我們可以把所有的芯片融合起來,1+1大于2。融合定位里面有慣導(dǎo),有圖像,慣導(dǎo)可以讓導(dǎo)航在隧道和高架都得到精準(zhǔn)的提醒。也有朋友說HUD想讓用戶體驗特別好,在高峰期前面道路看不到的時候,怎么知道該不該左轉(zhuǎn)或者變道?這個聽起來簡單,但實際上涉及的點還是蠻多的。首先是給你什么樣的信息提示,用什么樣的標(biāo)志告訴你,是用三角形還是箭頭,這是HMI層面。第二是策略層面,在轉(zhuǎn)彎多久之前告訴你提示或者告訴你變道,高速場景跟普通道路是不是一樣的時間。第三是算法層面,要精準(zhǔn)判斷你在第幾車道,然后給出你精準(zhǔn)的定位,才能給出這些提示信息,但精準(zhǔn)的提醒和精準(zhǔn)的定位要么就上高精地圖,要么就是把普通地圖利用融合定位做成跟高精地圖類似的效果。高精地圖大家都覺得好,但是它貴,落地是有一個發(fā)展階段的。我們現(xiàn)在想在普通地圖的基礎(chǔ)上,把這些硬件的芯片結(jié)合起來,給用戶一個更精準(zhǔn)的提醒,這樣既節(jié)省了成本,又能夠補充高精地圖發(fā)展之前的gap。
第三個是多樣渲染,渲染就是在提供信息的時候渲染成一個3D、2D的效果,但渲染是最上面一層,重點在以怎么樣的形式去顯示,前面還是要有感知和定位,才能把信息顯示的非常清晰。百度的優(yōu)勢是這上述1、2、3都會做。
第二個就是我們的亮點功能,我們有AR-ADAS功能,包括車道線偏離、前車預(yù)警、行人預(yù)警、交通標(biāo)識牌等等。大家也知道我們在一些城市已經(jīng)落地了V2X的示范項目,V2X也是可以加到HUD上的。HUD未來是起到顯示屏的作用,但是信息是最關(guān)鍵的一個環(huán)節(jié),所以百度在這個方面的積淀都會成為HUD上面顯示的一個生態(tài)環(huán)。
然后是車道級的指引,我們目前是不需要用高精地圖的,我們用普通地圖再加上多傳感器融合,能夠起到車道級的定位,并給出相應(yīng)的指引。第三個就是一個常規(guī)的功能。
百度AI能力的介紹分為這幾個方面:芯片、算法、大數(shù)據(jù)建設(shè)、內(nèi)容生態(tài)。剛才講了智能駕艙,智能的靈魂在于“智能”二字,這個肯定離不開AI能力。AI分為語音、視覺、導(dǎo)航定位,這三個是靈魂中的靈魂。導(dǎo)航定位是基礎(chǔ)功能,語音和視覺是兩個重要的交互形態(tài),如果交互不智能,這個體驗就沒有辦法智能。
在語音上面,我們可以達(dá)到聲紋識別、車載音節(jié)識別,視覺上面我們有量化的模型和專項車載場景訓(xùn)練模型。關(guān)于語音和視覺,我想Highlight的是我們進(jìn)行了場景化訓(xùn)練。語音跟小度音箱交互,這是居家場景,但是移到車上,可能這個專項場景是很多友商沒有做到的。這個是針對場景里面具體問題具體突破,比如你面臨的場景是狹小空間,四五個人坐在車?yán)铮笈沤徽?,你跟車機互動會受到干擾,這個時候您要怎么解決?
再比如說視覺,你在室內(nèi)人臉識別比較好做,因為光線很正常,你坐在那兒是靜止的。但是在車載環(huán)境里面, ADAS攝像頭對外,要探測的物體是移動的。移動物體、高速場景,陰雨天、黑夜怎么解決,這些都要進(jìn)行專項場景訓(xùn)練。所以我們車聯(lián)網(wǎng)的定位是把這些高精尖的技術(shù)場景化,我們做的東西是專門為車載場景而生的產(chǎn)品形態(tài)。
導(dǎo)航定位方面,我們有領(lǐng)先的車道級、亞米級的高精度定位,這個緩解了客戶對高精的需求壓力。還有我們語義SLAM的發(fā)展,目前也是為我們后期做一些新功能提供了技術(shù)積淀。
再者就是我們AI大數(shù)據(jù)的建設(shè),在語音方面我們知道要訓(xùn)練一個比較好的語音效果,需要有數(shù)據(jù)庫,我們的語音里面有六百萬條語音數(shù)據(jù)模型,導(dǎo)航覆蓋方面,我們是1000萬公里道路里程覆蓋,1.5億全球POI,數(shù)據(jù)量行業(yè)領(lǐng)先。在ADAS數(shù)據(jù)方面,我們有中國最大的數(shù)據(jù)采集車隊,AI賦能生產(chǎn)線高度自動化,還有中國首個全要素高精審圖號公司。
在AI生態(tài)上,也是從這三個方面去講,語音、視覺和地圖。語音有邊聽邊說全雙工,用戶可以一邊聽音樂、有聲書,然后免喚醒。我們也支持一些方言,所以語音和視覺上面我們可以看到,我們介紹的重點是場景化,比如說視覺我們也是支持車內(nèi)車外十多種任務(wù)識別,覆蓋人臉、手勢、車輛、行人等等。地圖也是行業(yè)唯一基于AI和大數(shù)據(jù)獨創(chuàng)的實時路況預(yù)測等功能,準(zhǔn)確度和路況實時精準(zhǔn)性是業(yè)內(nèi)第一。剛才講的那個精準(zhǔn)提醒,其實是有一個問題的,比如說我們開車最怕什么?最怕走錯路口,所以這個提醒的及時性和精準(zhǔn)性就很重要,這個也是導(dǎo)航的一個重點。
再講一下百度智能駕駛體驗中心,這個跟我們今天的主題會更加契合一些,這個體驗中心的常規(guī)功能包括產(chǎn)品體驗、策略咨詢、用戶行為研究分析,還有一些前瞻性的交互性創(chuàng)新設(shè)計,包括空間造型的工業(yè)設(shè)計,商業(yè)品牌重塑等等,它們專注在交互等方面,并且基于此跟國內(nèi)高校合作產(chǎn)生了一系列的學(xué)術(shù)論文,其中一個成果相信大家會比較感興趣,就是基于無人駕駛體感的模型評估。有嘉賓講到我們要在智能駕駛里面講究體驗的舒適性以及體驗的感覺比較好,但是這個感覺有哪些指標(biāo)來衡量呢?我們把智能駕駛體驗中心拆解出來,分了三層。包括整體維度上的舒適度,從這個舒適度可以進(jìn)一步拆分,看具體來自哪些方面,可以來自體感、安全感、智能感。第二層,這三個感知方面我們又拆分成更細(xì)節(jié)的這些點,這些研究成果也有發(fā)表在一些高質(zhì)量的論文上面。
最后再講一下AR-HUD方面百度的一些規(guī)劃。在產(chǎn)品上的規(guī)劃我們還是集中在HUD的核心價值上,核心的產(chǎn)品能力除了剛才說的智能生態(tài)和交互,目前3到5年我們所要聚焦的中心還有它的指引性、安全性,也就是ADAS相關(guān)功能和沉浸性。我們剛才講HUD分為2D、3D,那是2D好還是3D好,怎么樣讓駕駛員科技感最明顯,所以我們的產(chǎn)品目標(biāo)集中在指引性、安全性和娛樂性方面。
在這個基礎(chǔ)上,我們也進(jìn)行了相應(yīng)的技術(shù)規(guī)劃,包括云端技術(shù)、車道定位和精準(zhǔn)化的綁路,所有這些都是為了之后能夠?qū)崿F(xiàn)更精準(zhǔn)、更好的用戶體驗做準(zhǔn)備。我的演講就先到這里,非常感謝大家!