4月20日起,智東西公開課推出自動駕駛系列課第二季,9位自動駕駛新勢力的創始人和高管將帶來9節系列課。

第五課由禾多科技軒轅平臺負責人李文俊主講,主題為《如何快速搭建自動駕駛的硬體系統》。本文為李文俊的主講實錄,共計11064字,預計12分鐘讀完。一起了解下本次課程的提綱:

1、自動駕駛硬體系統的組成和介紹

2、車輛平臺與感測器對自動駕駛演算法的影響

3、如何搭建一套適合L2-L5自動駕駛的硬體系統

在瀏覽正文之前,可以帶著以下幾個問題:

-在自動駕駛領域中,HoloPilot和HoloParking分別實現了什麼功能?

-一個適合自動駕駛演算法開發的線控平臺需要克服哪些問題?

-感測器的標定和同步對整個硬體平臺有什麼影響?

-相比於其他的自動駕駛硬體平臺,軒轅平臺的優勢是什麼?

「提醒:如果希望下載自動駕駛第二季每堂課的完整課件,可以在車東西公眾號(ID:chedongxi)回覆關鍵詞“系列課”獲取。如果你希望成為主講導師,可以回覆關鍵詞“導師”,進行申請」

主講實錄

李文俊:大家好,我是禾多科技的李文俊,非常開心今天可以在這裡和大家一起交流自動駕駛硬體相關的問題,尤其是自動駕駛研發平臺的相關問題,也非常感謝智東西的邀請。

先自我介紹下,我在禾多科技主要參與硬體相關的工作,比如車輛底層控制感測器等,從畢業以後就投身自動駕駛領域,也算是一個自動駕駛的老兵了,這些年在工作中也趟過許多坑,下面我會跟大家一一分享。

今天我的分享將分為下面幾個部分:

1、禾多科技簡介;

2、自動駕駛的相關組成模組;

3、在自動駕駛硬體系統中遇到過的一些問題、趟過的坑以及一些硬體系統對上層軟體演算法的影響;

4、最後我會向大家推薦一款適合L2到L5的自動駕駛硬體系統。

【自動駕駛公開課】如何快速搭建自動駕駛的硬體系統?

首先和大家介紹一下禾多科技,禾多科技成立於2017年6月,專注於打造基於前沿人工智慧技術和汽車工業技術的自動駕駛方案。禾多這個名字來源於“移”字的兩個部分,禾多的英文名是Holomatic,意思是完全的控制。我們的願景是希望重新定義中國的自動駕駛來升級中國的出行,因此從整個技術研發到未來的產品都會聚焦在中國本土化的駕駛場景上。

禾多科技的創始人兼CEO倪凱博士,曾經建立百度的無人駕駛團隊,負責百度無人車的研發和部分高精地圖的工作。我們目前在北京和上海都有團隊,北京更加側重於軟體演算法,上海主要聚焦在硬體和產品化。作為一家擁有全棧自動駕駛量產方案研發能力的公司,我們的團隊中90%以上是碩士或者博士,由於我們的目標是將自動駕駛技術真正落地到產品,因此會從人工智慧學術研究和汽車方向的工程應用這兩方面切入整體的技術研發,同時也希望更多志同道合的人才加入我們。

【自動駕駛公開課】如何快速搭建自動駕駛的硬體系統?

剛才說到中國本土化的駕駛場景,我們目前聚焦在兩大應用場景,分別是結構化道路和以代客泊車為代表的最後一公里,並且提供這兩個場景下的自動駕駛解決方案,這同時也是我們最主要的業務合作。禾多科技目前已經推出了兩款原型系統,我們分別稱為HoloPilot以及HoloParking。

HoloPilot已經實現了在高速公路上的自動駕駛,包括跟車、自主換道、自主超車以及上下匝道等功能,其中上下匝道技術可以順暢地接駁高速公路和立交橋,實現高速公路之間的轉換,且中間無需人工接管。最後一公里的代客泊車HoloParking專案現在已經可以實現車輛自動尋找車位、泊車入位和泊出至指定地點等功能。

我們自主研發的軒轅平臺是一款橫跨軟硬體領域、可以支撐L2到L5級別的自動駕駛研發平臺,如何透過調整和設定,為HoloPilot和HoloParking這兩個專案提供諸多支援呢?下面我會仔細為大家講解。

【自動駕駛公開課】如何快速搭建自動駕駛的硬體系統?

【自動駕駛公開課】如何快速搭建自動駕駛的硬體系統?

在我們看來,一個完備的自動駕駛硬體系統,應該至少包含以下三個最基本的組成:

(一)首先,自動駕駛最基本的硬體組成,就是一部車,並且是具備線控功能的車。

所謂的線控就是指車輛可以透過上層發出的某些數字或者模擬的訊號來控制車輛的某些行為,這裡的上層就是大家平常所使用的比如電腦這樣的控制單元,可以理解為自動駕駛的大腦,而這裡的線控車輛可以認為是自動駕駛車輛的四肢。

線控車輛的控制行為又可以細分為以下幾個模組:

1、縱向控制,縱向控制可以說是車輛的驅動和制動,目前縱向模組比較常見的介面有控制車輛的速度、加速度、發動機或者輪端的扭距;

2、橫向控制,目前橫向控制的介面主要有兩種,一種是透過控制方向盤上的扭距來控制方向盤,第二種是直接控制方向盤的角度和轉動速度。

車輛的縱向和橫向控制可以認為是線控車輛最基本的線控功能,一輛車如果具備了這兩種控制能力,已經可以完成一些比如高速巡航之類的簡單自動駕駛功能。

除此之外,車輛的線控還應該包括一些其他的功能。比如檔位的控制、轉向燈控制、雙閃控制等,只是這些控制與縱向、橫向控制不同,大多都是一些定性控制,比如轉向燈的開關。

線控車輛除了對大腦發出的一系列指令做出反應之外,作為自動駕駛的四肢,車輛還需要向大腦反饋自己一系列的狀態,比如車輛是處於自動駕駛狀態還是人工駕駛狀態;另外,一旦駕駛員接管車輛,控制車輛也應該給予上傳相應的反饋。除此之外,還有一些車輛自身狀態的資訊,比如車速、輪速等資訊都是比較重要的。對於上層演算法的輸入,比如上層的控制單元、定位單元,都可以用到這些車輛資訊。

還有一個我們認為比較關鍵的地方,就是一旦車輛不能正確地反饋上層的控制命令,那麼車輛本身就需要反饋一種車輛的錯誤狀態,這樣開發人員才能根據車輛的錯誤狀態來解決車輛報錯的問題。

除了車輛的控制和反饋之外,線控車輛在通訊介面上還會有一些不同的地方。目前絕大多數的線控車輛應該都是用CAN匯流排作為通訊介面,但是不排除有些車輛會使用類似車載乙太網這些結構作為控制介面。

【自動駕駛公開課】如何快速搭建自動駕駛的硬體系統?

(二)第二個自動駕駛硬體系統必要的組成部分是相關的感測器。

前面有提到過,其實車輛本身也可以算做自動駕駛的一個最基本的感測器,本身會提供車輛的一些基本資訊,而其他的一些自動駕駛相關的感測器就可以認為是自動駕駛的眼睛和耳朵。下面列舉了一些比較有代表性的感測器。

攝像頭:

這種感測器有一個非常大的優點,就是成本非常低廉,目前市場上已經有很多量產級別和車規級別的攝像頭可以供大家挑選。目前很多量產車都可以在不同的位置上安裝攝像頭這種感測器。另外一方面是在演算法層面,由於攝像頭相關演算法(比如視覺定位)已經發展很長時間,有些演算法已經比較成熟了,已經能夠很快地在自動駕駛上實現,並且目前看來是有一些演算法的效果還不錯。

但是攝像頭的缺點也是有的,在做硬體的人看來,攝像頭本身的時間同步比較困難,對於攝像頭本身來說,需要考慮它是GlobalShutter(全域性快門)還是RollingShutter(捲簾快門)。如果我們要做到精準的時間同步,還需要考慮從攝像頭底層去得到每張圖的曝光時間,從而得到每張圖精確的成像時間,因此這種同步往往是非常困難的,也會影響後續感測器融合的演算法效能。

禾多科本身是聚焦在自動駕駛的量產專案上的,我們發現相機還有一個問題是視覺演算法對於計算單元的需求比較高,目前很多的演算法可能都需要高效能的GPU或者定製化的FPGA,這些晶片目前很難有量產化的前景,至少最近幾年不會。

另外相機本身的輸出量非常大,如果想要無損地儲存相機裡面的資料,在量產的方案裡幾乎不太可能。最後還有一個相機最顯而易見的問題是,它不是一個全天候工作的感測器,在一些比較惡劣的天氣或者是在天黑的時候,相機的一些演算法就不能正常工作了。

鐳射雷達:

鐳射雷達可以是自動駕駛的寵兒,從最早的DARPA挑戰賽開始,到現在很多的自動駕駛解決方案都依賴於鐳射雷達,所以從現在看來,無論國內還是國外都有很多鐳射雷達的供應商,當然鐳射雷達這麼受青睞也是有原因的,它的優點是能夠非常精確地拿到釐米級的資料,而且能夠非常精確地測量出周圍的3D資訊。

從鐳射雷達立足於自動駕駛量產方面來看,成本還是降不下來,雖然固態雷達這樣的低成本方案已經提出很長時間了,但是目前市面上依然沒有特別成熟的固態雷達解決方案。另一個問題是鐳射雷達目前都是屬於旋轉式的機械結構,這種結構往往是很難透過車規的,因此想要做到前裝量產是比較困難的。而在我們的瞭解中,現在也只有法雷奧Valeo的四線鐳射雷達通過了車規,裝到了量產車上面。

以前我們在使用鐳射雷達的時候出現過這種問題,在下雨天時,地上的積水和天空中的雨水都會對鐳射雷達的測量造成非常大的噪聲。所以鐳射雷達也不能認為是一個全天候的感測器,但是它對天氣的要求並沒有相機那麼苛刻,因此我相信,不止是禾多,很多從事自動駕駛相關的工作人員也都很期待下一代鐳射雷達的產品,不管是固態的還是一些其他形式的鐳射雷達。

超聲波雷達:

這是一款已經大量量產並且安裝上車的感測器,現在大部分的車已經在用超聲波雷達做一些倒車相關的功能,所以在自動駕駛上使用超聲波雷達會使得感測器的成本非常低,因為一方面超聲波雷達本身造價低,另一方面不需要再去額外安裝這些感測器。但是超聲波雷達在自動駕駛中扮演的角色並不是那麼重要,因為其本身的使用場景比較有限,有效的探測距離也只不過在幾米範圍內,不過在一些特定場景,比如自動停車功能中,超聲波雷達是不可或缺的一環。

毫米波雷達:

也是一款量產級別的感測器,目前很多的量產車都安裝了至少一個毫米波雷達來實現ACC這樣的功能,甚至有一些高配的車安裝了5-6個毫米波雷達,我們認為,如果在一輛車上安裝了5-6個毫米波雷達,那麼這種配置可以看作是已經到了L4級別下可使用的配置,因此在今後的方案中,毫米波雷達的使用成本也會比較低。

而且毫米波雷達本身的探測距離和速度也是非常重要的優點,對於障礙物的速度,毫米波雷達是能夠直接檢測出來的,而不像其它感測器是算出來的。並且很多毫米波雷達是全天候工作的感測器,從經驗來看,毫米波雷達確實可以比較好的應付下雨、下雪這樣的天氣。

不過毫米波雷達的缺點也比較明顯,毫米波雷達的檢測結果往往缺乏3D資訊,只是檢測到一個障礙物的點,會導致毫米波雷達與其他感測器或者與車身的標定變得非常困難。好訊息是,一些大的毫米波雷達供應商都在開發下一代產品,比如博世的第五代毫米波雷達,他們會開放出毫米波雷達更加底層、類似鐳射點雲的資訊,相信這種產品的問世,會使自動駕駛受益匪淺。

GNSS/IMU組合慣導:

我們通常把這兩個感測器放在一起,因為這兩個感測器經常一起配合使用來提供比較穩定精準的定位資訊,而且他們之間的融合演算法也已經相對比較成熟,可以大量使用在各種自動駕駛方案中。除了獲得定位資訊之外,GNSS也可以為整個自動駕駛系統提供穩定的時間源,可以用這個時間源做各個感測器和車身之間的同步資訊等同步方案。

【自動駕駛公開課】如何快速搭建自動駕駛的硬體系統?

(三)自動駕駛的計算單元:

也就是我們前面提到的自動駕駛的大腦,從自動駕駛的研發或者量產來說,計算單元大概可以分為以下的三種情況:

1、使用比較成熟的工控機,這種方法最快也最方便,很適合自動駕駛初期的演算法開發與驗證,不過使用工控機,日後的量產就難以實現;

2、使用第三方提供的研發平臺,這裡面最著名的就是NVIDIA提供的Drive PX2,但是從使用經驗上來看,也存在一些問題,比如定製化不足,容易出現資源浪費或者資源不足的問題;

3、自研研發平臺,上圖展示的就是禾多自己開發的一個比較簡單的嵌入式控制單元,不過這種做法在研發上往往需要耗費很多精力和時間。

以上就是自動駕駛硬體系統的三個組成部分:自動駕駛的四肢——線控車輛、自動駕駛的眼睛——感測器、自動駕駛的大腦——計算單元。下面我會主要針對平臺和感測器對自動駕駛演算法的影響進行一些具體的討論。

【自動駕駛公開課】如何快速搭建自動駕駛的硬體系統?

這張圖展示了我們從事自動駕駛以來使用過的線控平臺,第一輛車是當時CEO倪凱在清華上學時使用的線控平臺;第二輛車是在百度最開始使用的線控平臺,當時主要用它來驗證我們最初的一些演算法;第三輛車是當時百度和寶馬合作一起改的一輛線控車,後來也是這輛車完成了百度自動駕駛的Demo;最後一輛車是我們在後續工作中使用的大眾高爾夫的線控車輛。

【自動駕駛公開課】如何快速搭建自動駕駛的硬體系統?

在使用這麼多線控車輛的經驗當中,我們深深地感受到,要找到一個適合自動駕駛演算法開發的線控平臺,並不是一件非常容易的事情,我們在使用過程中也遇到過非常多的坑。

首先是線控功能的不穩定,有一些線控車輛雖然具備線控能力,但是往往會出現功能不穩定的情況,比如做三次測試,有兩次測試是有問題的,只有一次測試才能成功,這往往會影響演算法的除錯效率;另外是控制邏輯的複雜性,具體表現在有些線控車輛要實現線控指令,必須按照一定的時間順序和先後順序向車輛傳送一系列的指令,一旦中間有哪個環節出錯,就會出現車輛報錯的情況。

還有一些車輛本身的控制存在響應延時較長的問題,這種大延時往往是控制演算法所擔心的,會加大車輛的控制誤差;另外有一些線控平臺是透過外加裝裝置的方式來達到線控作用,透過外加裝的方式,除了會有一定的延時以外,還會造成線控效能的不可靠,雖然線控平臺的控制介面已經成功實現,但還是繞不開底層的一些限制,比如有些車輛的縱向控制只有當車速達到某個速度以上才能啟用。

線控車輛的縱向和橫向控制不準確也是一個問題,比如車輛的底層控制除錯得不是很好,方向盤的控制有時候會有很大的超調出現,這種不精準的控制肯定會影響上層的演算法除錯。我們就曾經遇到過車輛的線控和車輛的狀態強相關的情況,比如方向盤上可施加的力矩和當前的車速成反比,導致上層的控制演算法會根據車輛的狀態做出不同的除錯,在不同的車速下會有兩套不同的引數等類似問題。

最後一個問題是線控車輛的供電問題,因為整個自動駕駛硬體系統的供電可能都要由線控平臺來提供,所以供電的穩定性也非常關鍵,尤其是目前有一些計算單元對供電的穩定性有著非常嚴格的要求,我們之前也遇到過因為車輛點火導致車輛電瓶抖動而損壞了GPU的情況。

以上就是我們線上控平臺上遇到過的一些問題,相信今後大家在從事自動駕駛時,線上控平臺上也會有更多的困難和挑戰,這也凸顯出一個良好線控平臺的重要性。

【自動駕駛公開課】如何快速搭建自動駕駛的硬體系統?

下面我將分享一下關於感測器的標定和同步對整個硬體平臺的影響。

鐳射雷達和車體的外參標定:

鐳射雷達是我們在車上裝的一個比較魯棒的感測器,因此很多的感測器(比如毫米波雷達、攝像頭)可能都是透過將它們與鐳射雷達進行標定,再與車身之間得到一個外參,可以看出鐳射雷達與車體的外參標定是十分重要的。

上圖展示了標定前和標定後兩種情況,左邊是把鐳射雷達放在車輛上,同時工程師手量了一個外參,包括XYZ以及旋轉的角度,然後根據外參讓車輛動起來,將車在不同的pose下采集到的鐳射點雲疊加,根據疊加的效果發現量出來的外參有時是很不準確的,從圖上可以看出,在右上角的位置應該是有一面牆的,由於外參的不準確,所以導致點雲疊加起來的牆非常模糊。

因此我們透過一些演算法將鐳射與車體外參進行了充分的標定,標定後的結果就是右邊這幅圖。從這幅度可以看到標定之後再將點雲疊加,這時牆面已經變得很薄了,同時這個直角已經很明顯了,如果我沒有記錯,應該是使用Velodyne16線鐳射雷達和車體的標定。

【自動駕駛公開課】如何快速搭建自動駕駛的硬體系統?

毫米波雷達的標定:

一直以來,毫米波雷達的標定都是一個比較困難的問題,前面講過毫米波雷達的輸出是缺乏3D資訊的,因此它檢測到的障礙物只是一個點,而這個點又不是物體上非常有規律的點,比如如果是一個正方形,那麼它就會返回正方形的一個角點,通常是根據角度和毫米波發生的角度來返回一個能量最集中的點。

這種不確定性和缺乏3D資訊會造成一種標定的困難,這裡有兩幅圖,同樣也是標定前和標定後。其中紅色的線是鐳射點雲疊加後的線,黃色的大點是我們標定時使用的一些柱子工具,我們想透過這些柱子來標出毫米波雷達和鐳射雷達的位置,這些黃色的點是我們用來標記出這些柱子在鐳射雷達點雲中的位置。

如果大家放大圖片,可以看到左側影象中黃色點附近有很多零零星星排布的小黃點,這些黃色的點就是當我們的車繞著這些柱子開的時候,毫米波雷達在某些時刻記錄下來的障礙物的位置。

這些位置跟鐳射點雲中的點還是比較分散的,如果把這種結果直接用來做後面的障礙物標註,影響會非常大,很難將鐳射點雲中黃色的點跟這些雜湊分佈的小黃點進行融合到一起。

而我們是經過一個毫米波雷達標定,最後的標定結果是呈右圖顯示,雖然沒有完全讓黃色的鐳射雷達點雲和毫米波雷達障礙物的點重合到一起,但是目前他們已經很集中了,因此再把這種的結果交還給後續的融合演算法,就會得到一個比較好的效果。

【自動駕駛公開課】如何快速搭建自動駕駛的硬體系統?

攝像頭的標定:

我們將攝像頭的位置與鐳射雷達的位置進行標定,從而反推到車體座標系下攝像頭的位置。其中攝像頭的標定分為內參的標定和外參的標定。

內參的標定主要是體現在去畸變上,大家可以看左邊圖,我們選用的是一個廣角的相機,區別還是比較明顯的,在現實中,我們的棋盤格應該是一個直角的棋盤格,但在相機上已經產生了彎曲的弧線。

透過內參的標定把畸變去了之後,雖然圖片的尺寸發生了變化,但是這種現實生活中的直線在影象中也會還原成直的,這樣能更加好地去進行外參的標定,可以把鐳射雷達的點雲投射在棋盤格上,包括投射在我們的工作人員身上,這樣就把攝像頭和鐳射雷達的外參位置給標定出來了。

【自動駕駛公開課】如何快速搭建自動駕駛的硬體系統?

接下來分享下感測器的時間同步問題,有一些感測器其硬體本身可能就具備時間同步的功能,比如鐳射雷達、GPS/IMU等感測器,這類感測器的同步可能會比較容易實現,因此我們也不需要去考慮。比較麻煩的是CAN匯流排的時間同步,由於CAN匯流排沒有時間源,因此我們也只能使用一個接近的方法去推斷CAN匯流排的時間戳資訊。

在這裡我主要分享一下相機的時間同步,就像前面的相機實驗,並不是一個比較困難的事情,我們需要知道每一幀影象的出發時間、相機的曝光時間,這樣才能知道相機的真正成像時間,當然也可以把相機資訊傳到電腦上的時間作為影象的時間戳,但是這樣就變成了從出發時間到曝光成像時間,再加上從相機傳輸到電腦的傳輸時間,而需要經過這麼長的延誤時間才能達成一個時間戳。

時間戳延誤會造成什麼問題呢?大家可以看左邊的這幅圖,在上一張圖片中,我們看到了在靜止的狀態下,我們的點雲跟相機上的圖片已經可以很好地重合到一起了。但是在這幅圖中,由於車輛是在高速行駛狀態下,時間戳延誤會導致即便是標定好的外參,但是點雲投射到相機上也會出現不吻合的情況,也就是左邊這張圖。

如果我們把相機的同步時間做精準了之後,就可以透過剛才的外參把點雲投射到相對應的時間戳影象中,這樣就會保證點雲和影象中的元素還是重合的,即右圖所展示的這樣。

【自動駕駛公開課】如何快速搭建自動駕駛的硬體系統?

前面講了車輛線控上的問題以及遇到的坑、感測器標定和同步的問題,那在我們看來,適合L2-L5自動駕駛的硬體平臺是怎樣的呢?

首先從線控平臺來看,要保證功能的穩定性以及控制的準確性、延時小、控制介面靈活,儘可能少的功能限制,同時控制也要有一定的安全保障,可複用性高。

其次,在感測器系統上,需要有一套完整可靠的感測器系統,包括感測器的供電要穩定,各類感測器及感測器與車身的標定要準確,感測器的時間同步也要有一定的保證,並且要保證感測器有穩定的輸出。

【自動駕駛公開課】如何快速搭建自動駕駛的硬體系統?

正是因為前面一些經驗的痛點,透過自己的技術累積以及與國際主機廠和供應商的多個合作專案經驗,我們發現研發效率取決於研發平臺的完善度,並且是決定效率高低的因素之一,好的可搭載自動駕駛系統的車輛平臺稀缺是目前絕大部分同行的痛點。於是我們禾多科技在2017年11月份釋出了軒轅平臺,並且認為軒轅平臺是適合L2到L5自動駕駛需求的平臺。

接下來我會給大家分享一段影片,這是去年11月份我們釋出軒轅平臺時的記錄影片,在釋出現場,兩款測試平臺車分別展示了八字繞樁、不剎車緊急變道、全車道無人接駁三個專案,大家可以看一下這個影片。

影片一(可以在車東西公眾號回覆關鍵詞“禾多科技”獲取)

大家可以看到,在這個影片裡面,展示了兩款軒轅測試平臺,分別進行了三個專案:

第一個是在一個有限的場地裡面進行八字繞樁,當時的車速接近30km/h;

第二個是進行不減速變道,當時的車速是在60km/h左右,車子在不減速的情況下做兩次連續的變道;

最後一個是在當時的卡丁車場地,平均車速是在30到40km/h進行繞場地一圈。

這三個專案都是在軒轅平臺上透過自動駕駛的方式去實現的,其實當時的控制演算法遠遠沒有現在很多演算法那麼複雜,只是一些簡單的演算法透過軒轅平臺的介面就能實現。

【自動駕駛公開課】如何快速搭建自動駕駛的硬體系統?

目前軒轅平臺支援大眾邁騰和別克昂科威兩種車型,軒轅平臺除了提供最基本的線控功能之外,還能提供各種定製化的服務,比如感測器和多種硬體的整合以及定製化的模組等服務。

【自動駕駛公開課】如何快速搭建自動駕駛的硬體系統?

從線控車輛的效能上看,軒轅平臺在縱向控制上可以實現車速0-150Km/h的範圍,倒車時候可以到達-8Km/h速度上的控制,並且提供多種緊急減速機制,縱向控制包含多種退出機制,包括駕駛員的超越模式等。橫向控制可以達到方向盤從-450°到450°的功能實現,包括前進和後退兩種操作,同樣也支援多種退出機制。需要強調的是縱向控制和橫向控制都是使用原車機構實現,所以在穩定性和安全可靠性上有一定的保障。對於其他的控制方向,我們目前支援的有檔位切換、轉向燈和警示燈的點亮。

在硬體介面上,支援CAN匯流排和乙太網通訊介面。在電源的輸入方面,我們也做了一些工作,首先是做了一個12V的穩壓模組,保證車輛所提供的電源能夠穩定在12V,誤差±10%範圍內來滿足一些元器件的要求,而我們能夠提供的功率應該是在1000W左右。

【自動駕駛公開課】如何快速搭建自動駕駛的硬體系統?

除了線控車輛之外,軒轅平臺還能提供一些其他的硬體支援服務,就像前面提到的電源管理裝置,還可以提供一些計算平臺以及人機互動的裝置等;在軟體方面,可以支援多種通訊中介軟體,比如ROS等,還可以提供一些底層的控制模組、感測器驅動、感測器融合模組等。另外軒轅平臺支援的感測器包括上面提到的所有自動駕駛基本的感測器,比如鐳射雷達、毫米波雷達、相機、組合慣導以及超聲波雷達等。

【自動駕駛公開課】如何快速搭建自動駕駛的硬體系統?

大家可以看一下我們對軒轅平臺的改裝,外加了一些感測器,比如毫米波雷達和鐳射雷達,並做了一定的隱藏,從外觀上來看和普通車輛幾乎沒有差別,在保持車輛本身外觀和美觀的同時更符合車規,同時後備箱改裝後也留出了足夠的空間,為今後的量產和落地做一些前期的準備工作。

我們認為如果要做真正的自動駕駛量產系統,就要做封裝的自動駕駛,要做嵌入式、低價格、可量產的裝置,只有這樣我們才能把方案提供給主機廠,才有機會量產面向大眾,因此不管在軟體上還是硬體上,禾多科技都是直接對量產服務的,對我們自己而言,軒轅平臺同時也支撐著我們可以量產落地的自動駕駛產品。

【自動駕駛公開課】如何快速搭建自動駕駛的硬體系統?

這是禾多科技從成立到現在的發展歷程,大家可以看到,自從去年11月釋出了軒轅平臺以後,在短短几個月的時間裡面,我們就完成了L3。5級別的高速公路自動駕駛解決方案HoloPilot;5月18日,我們在上海的汽車創新港釋出了L4級別的智慧代客泊車系統HoloParking。其中HoloPilot和HoloParking研發都是基於軒轅平臺的支撐。

接下來跟大家簡單介紹一下目前我們為什麼選擇聚焦於HoloPilot和HoloParking這兩個場景,主要有以下幾個原因:

首先,我們認為中國有自己本土化獨有的交通狀況和駕駛習慣,也意味著歐美的自動駕駛系統到了中國會有水土不服的情況,所以需要有適合中國人和道路情況的自動駕駛系統。

其次,我們把未來的出行場景分為三部分:1、高速公路,也就是我們的結構化道路;2、城市工況;3、最後一公里,其中也包括代客泊車。從解決使用者的痛點、快速落地量產化的角度來看,我們認為高速公路和最後一公里可以說是整個行業內發展的重點,因此我們也把這兩塊作為首先要聚焦的場景,而城市工況會在更遠的將來實現。

基於這樣的考慮,我們釋出了HoloPilot和HoloParking。而在研發過程中,我們也深刻地感受到一個穩定完善的自動駕駛研發平臺是多麼重要,所以我們希望透過軒轅平臺與同行共享一個清晰有效的解決方案。自動駕駛生態覆蓋的細分領域眾多,除了各大車企外,比如初創公司、網際網路基因企業、共享運營企業,甚至高校研發團隊,有研發平臺需求時,軒轅平臺都可以為之賦能。

影片二(在車東西公眾號回覆關鍵詞“禾多科技”獲取)

接下來我們來看一段5月18日釋出HoloParking的現場演示影片。

大家在影片裡可以看到,在軒轅平臺上,在別克昂科威車型上我們已經完成了在停車場入口自動尋找車位、泊車入位的功能,同時軒轅平臺也為HoloParking提供了一定的硬體支援。

我今天的分享就到這裡結束了,謝謝大家。

Q&A環節

提問一

王學方-阿里-機器學習工程師

L4的量產車硬體成本短期內會降低嗎?

李文俊:

L4級別的量產車硬體方案成本,我認為短期內不會降低。當然這也要看L4級別具體用什麼樣的感測器配置。現在有的是用鐳射雷達的方案,也有用其他方案的,比如Mobileye的視覺方案,這樣對比來看,純用視覺方案可能在成本上會有一些降低,而鐳射雷達就像我剛才前面說的,雖然提出固態鐳射雷達已經有很長一段時間了,但是目前還看不到一個比較成熟的產品。除了感測器之外,計算單元的成本也是一個非常嚴峻的問題,比如GPS在成本上也是比較高的。所以我認為L4級別的硬體成本在短期內應該不會有降低。

提問二

張軍良-電子科技大學-計算機視覺

自動駕駛的多感測器(鐳射雷達,多攝像頭)做到時間的同步,空間上的對齊的,需要用到影象拼接的知識嗎?

李文俊:

我認為同步和標定應該是根據大家的演算法來做的,目前來看,我們這邊並沒有用到影象拼接的知識,相反,如果在標定和同步上做到了一定的精度和準確度之後,反而會對後續的影象拼接有一定的幫助,因為你已經知道各個影象之間的相對關係,再用這些相對關係來做影象拼接,就會非常容易了。

提問三

曹宏為-四澤電子上海公司-工程師

1、關於車載乙太網在L2-L5的系統中地位如何?

2、如果沒有車載乙太網技術的應用,L2-L5是否可以很好的實現?

李文俊:

1,我個人比較看好車載乙太網在自動駕駛系統中的應用,比如前段時間VALEO量產的SCALA鐳射雷達,其實它的輸出介面就是BroadR-Reach的車載乙太網。從現在的技術來看,不管是鐳射雷達還是前面所介紹到的下一代毫米波雷達,它們的資料量是CAN匯流排完全承受不了的,所以隨著感測器的豐富,車載乙太網將會是一個趨勢。以前在和主機廠的一些合作中,他們也有計劃把車身的整個通訊全部轉移到車載乙太網中,包括車的控制以及訊號反饋之類的,所以我認為車載乙太網在L2-L5系統中應該會扮演著非常重要的角色。

2,如果沒有車載乙太網技術的應用,從感測器資料這方面來說,從L2到L5的實現就很難得到很好的保障。

提問四

黃立明-踏歌智行-CTO

硬體系統的冗餘可靠設計與成本價格如何平衡?

李文俊:

硬體冗餘可以分為兩部分,第一部分是車體本身執行結構的冗餘,也是必不可少的,跟車輛的成本應該是沒有關係的,比如博世的方案應該是由iBooster和ESP兩套方案的,這個成本更多的是為車輛將來的系統穩定性考慮的,因此我認為這個成本是省不了的。

另一個是感測器的冗餘,感測器的冗餘也是有必要的,所以我們的HoloPilot和HoloParking設計方案,在車輛的360°範圍內,每一個角度上至少有兩個感測器的冗餘,比如毫米波雷達+鐳射雷達冗餘、相機+鐳射雷達冗餘。至於成本的控制,很大程度上取決於自己的演算法,如果自己的攝像頭演算法很強,攝像頭+毫米波就可以達到車輛側方的檢測冗餘,那麼就會降低一些成本。

比起用鐳射雷達和毫米波雷達結合冗餘方案,我們認為車輛的前方應該保留鐳射雷達+毫米波雷達+攝像頭三個冗餘,由於之前行業內發生過的一些事故,都是因為毫米波雷達和視覺感測器融合傳遞的資訊沒有鐳射雷達那麼精確所造成的,因此我們的方式是在車輛的每個方向上至少有兩個冗餘,而在車輛的前方應該有三個冗餘。而冗餘的成本也是不能減少的,只能透過挑選不同的感測器來降低成本,比如側面的鐳射雷達換成攝像頭。