影響購車決策的技術(shù),智駕已成為核心競爭點(diǎn)。2024年以來,智駕之爭持續(xù)升級,無論是新勢力,還是華為、比亞迪這樣的頭部企業(yè),都在不遺余力地推進(jìn)智駕方案的落地。那么各家智駕的技術(shù)路線有何差異,本文帶來簡單分析。
華為乾崑
華為乾崑是以智駕為核心的系列解決方案品牌,涵蓋乾崑ADS,乾崑車控,乾崑車云等解決方案。Advanced Driving System(高階智能駕駛系統(tǒng))簡稱ADS,融合了激光雷達(dá)、攝像頭、毫米波雷達(dá)等多傳感器,屬于多模態(tài)的融合感知系統(tǒng)。
華為乾崑ADS 1.0自2021年發(fā)布,采用多傳感器融合方案,依賴高精地圖實(shí)現(xiàn)路徑規(guī)劃和障礙物檢測;ADS 2.0 2023年4月發(fā)布,亮點(diǎn)是“無圖駕駛”,通過自主感知技術(shù)和路徑規(guī)劃算法,使車輛能在無高精地圖情況下自主識別車道等。采用GOD算法,硬件進(jìn)一步優(yōu)化,減少了激光雷達(dá)、毫米波雷達(dá)、攝像頭等硬件;ADS 3.0 2024年發(fā)布,引入端到端大模型架構(gòu),采用感知+決策分層的GOD+PDP架構(gòu),支持從停車位到停車位的全自動駕駛。
目前的ADS 3.0采用多傳感器融合方案,通過激光雷達(dá)、毫米波雷達(dá)和攝像頭等多種傳感器進(jìn)行感知。激光雷達(dá)用于高精度、長距離感知;毫米波雷達(dá)在極端天氣和夜間表現(xiàn)好,能補(bǔ)充激光雷達(dá)盲區(qū);攝像頭負(fù)責(zé)捕捉圖像信息,識別細(xì)節(jié),多者融合提升綜合感知能力。
ADS 3.0采用BEV和GOD融合的GOD網(wǎng)絡(luò)。BEV結(jié)合激光雷達(dá)、攝像頭等傳感器數(shù)據(jù),將不同視角、不同類型的數(shù)據(jù)進(jìn)行融合處理,形成一個(gè)統(tǒng)一的、基于鳥瞰圖的環(huán)境模型,讓車輛能夠從一個(gè)類似“上帝視角”來理解周圍環(huán)境。GOD將外界環(huán)境劃分為多個(gè)立方體,判斷占用狀態(tài),生成精確環(huán)境模型,提升復(fù)雜城市環(huán)境泛化能力。進(jìn)一步說,GOD除了可以辨識出白名單內(nèi)的物體,對于沒見過的、白名單以外的異形物體都能看懂。
ADS3.0采用“端到端”的智能駕駛模型,在這個(gè)架構(gòu)下,由一個(gè)“端到端模型”來全流程地處理從傳感器接收到的感知數(shù)據(jù),并完成判斷和決策,最終輸出控制指令。
華為車端算力平臺主要是MDC610,AI算力200TOPS(INT8)。
小鵬XNGP
小鵬XNGP早期名為XPILOT,采用融合感知的方案,感知設(shè)備包括攝像頭、毫米波雷達(dá)以及激光雷達(dá),24年小鵬發(fā)布了AI鷹眼視覺方案的高階智駕,全面切換到純視覺感知方案。
XPILOT于2018年發(fā)布,經(jīng)歷了多個(gè)版本迭代,早期應(yīng)用包括自適應(yīng)巡航、自動泊車、車道保持等L2級輔助駕駛的基本功能。隨著技術(shù)演化,2023年小鵬在北京首發(fā)XNGP,不再依賴高精地圖就能實(shí)現(xiàn)城區(qū)智駕,進(jìn)一步提升了智駕能力的實(shí)用性和可靠性。2024年,小鵬汽車宣布XNGP城區(qū)智駕全面進(jìn)入100%無圖時(shí)代,智駕可用范圍里程翻倍。同年,小鵬開始切換到端到端大模型應(yīng)用,AI天璣XOS5.2.0全量推送。新智駕算法基于BEV+Transformer架構(gòu)的端到端大模型,實(shí)現(xiàn)不限城市、不限路線、不限路況,掉頭、環(huán)島、小路都好用的智能駕駛,還支持100米循跡倒車、離車泊入等功能。
目前,小鵬汽車采用AI鷹眼視覺方案,這屬于純視覺的感知方案。全系搭載26個(gè)感知硬件,前視攝像頭采用雙目,應(yīng)用了單像素Lofic架構(gòu),它能夠更精準(zhǔn)地捕捉光線的強(qiáng)度、顏色等信息,極大提高了圖像的分辨率和清晰度,為智能駕駛系統(tǒng)提供更豐富、更準(zhǔn)確的視覺數(shù)據(jù)。據(jù)小鵬汽車介紹,這個(gè)方案實(shí)現(xiàn)了超激光雷達(dá)8倍的信息量。未來的小鵬G7、G6、G9、P7i改款等車型都將采用這一純視覺智駕方案,且不再區(qū)分高低智駕版本,全系均為一個(gè)方案。
XNGP算力平臺基于英偉達(dá)的NVIDIADRIVEOrin計(jì)算平臺,雙OrinX芯片具備508TOPS的算力。
蔚來
蔚來的智駕稱為NIO Pilot,同樣采用融合感知方案。感知設(shè)備包括超遠(yuǎn)距高精度激光雷達(dá)、800萬像素高清攝像頭、毫米波雷達(dá)、超聲波雷達(dá)等。相比其他品牌車型,蔚來將部分ADAS攝像頭布置于車頂,進(jìn)一步減小了感知盲區(qū)。
算法方面,NIO Pilot系統(tǒng)于2024年發(fā)布NADARCH 2.0架構(gòu),將智駕算法切換到端到端架構(gòu),蔚來的端到端架構(gòu)引入了智能駕駛世界模型NWM,可全量理解數(shù)據(jù),能在100毫秒內(nèi)推演出216種可能發(fā)生的場景,并尋找到最優(yōu)決策。作為生成式模型,能將3秒鐘的駕駛視頻作為輸入,生成長達(dá)120秒的預(yù)測視頻,讓車輛對未來路況和交通參與者的行為有更長遠(yuǎn)的預(yù)判,提前做出合理決策。
算力上,蔚來NIOPilot搭載Adam超算平臺,集成了4顆NVIDIA DRIVE OrinX芯片,算力高達(dá)1016TOPS。
理想汽車
理想汽車的智駕稱為AD MAX(高配)和AD Pro(低配)。不管是高配還是低配,均采用融合感知算法。以ADMAX為例,具體硬件包括1個(gè)激光雷達(dá)、1個(gè)毫米波雷達(dá)、6顆800萬像素ADAS攝像頭和4顆300萬像素環(huán)視攝像頭,以及12個(gè)超聲波雷達(dá)。
理想汽車于2024年切換到端到端算法,采用端到端+VLM的架構(gòu),理想汽車稱之為“快系統(tǒng)”和“慢系統(tǒng)”,快系統(tǒng)無意識,也不耗費(fèi)腦力,依賴直覺和本能就能判斷,也就是端到端,主要面對日常駕駛處理信息,使輔助駕駛具備“老司機(jī)”的駕駛能力。慢系統(tǒng)VLM是全名視覺語言模型,著重于圖像和場景的理解,作為智駕決策規(guī)劃輸入,讓車輛的行為更合理。這套模型主要應(yīng)對復(fù)雜場景下的邏輯思考和決策,如解潮汐可變車道、丁字路口場景、減速帶、坑洼路面、復(fù)雜環(huán)道自車所在位置等,當(dāng)快系統(tǒng)面對上述無法理解的場景時(shí),慢系統(tǒng)介入,決策并輔助系統(tǒng)完成場景應(yīng)對。
算力平臺上,理想汽車AD MAX采用英偉達(dá)的NVIDIA DRIVE Orin計(jì)算平臺,雙OrinX芯片具備508TOPS的算力。
比亞迪“天神之眼”
天神之眼是比亞迪的高階智能駕駛輔助駕駛系統(tǒng),于2023年7月3日首發(fā),2025年2月10日正式發(fā)布。
天神之眼目前共推出三個(gè)版本,分別是天神之眼A/B/C,A是高階智駕三激光版,主要應(yīng)用在仰望品牌;B是高階智駕激光版,應(yīng)用在騰勢品牌;天神之眼C則會搭載在王朝和海洋網(wǎng)車型。
以入門級的天神之眼C為例,配備5個(gè)毫米波雷達(dá)、12個(gè)攝像頭(包括前視三目攝像頭)、12個(gè)超聲波雷達(dá),屬于多模態(tài)的融合感知技術(shù)。
算法上,比亞迪自研的BAS 3.0+行泊車算法架構(gòu)屬于兩端式端到端網(wǎng)絡(luò),分為感知主干網(wǎng)和規(guī)控主干網(wǎng),配合基于VLM數(shù)據(jù)挖掘的“黃金數(shù)據(jù)”,從能力和體驗(yàn)上來說,屬于目前的智駕的第一梯隊(duì)。
算力平臺上,天神之眼A配備英偉達(dá)的NVIDIA DRIVE Orin計(jì)算平臺,雙Orin配置,天神之眼B為單Orin,天神之眼C則是OrinN和征程6的混搭。
【觀察】
目前來看,智駕算法已普遍切換為端到端的架構(gòu),但在感知方面,各個(gè)廠家的技術(shù)路線主要還是以純視覺方案以及融合感知方案為主。兩種路線不能絕對的區(qū)分好與壞,但從感知設(shè)備的原理和性能上來說,配備了毫米波雷達(dá)和激光雷達(dá)的融合感知方案,其感知上限能力更高。激光雷達(dá)除了優(yōu)異的方位分辨能力外,在夜間無照明的道路的感知能力也較攝像頭更出色,可以顯著提升了AEB的可靠性。(朋月)