2024 年上半年,無圖 NOA 和「全國都能跑」成為了主流智駕玩家的新戰場;
但就在昨晚,理想的 2024 智能駕駛夏季發布會卻直接宣布 BEV+OCC 方案已經成為了「過去式」?
理想 OTA 6.0 新增了「無圖 NOA 功能」,覆蓋理想 MEGA 及 L 系列搭載 AD Max 智駕系統的車型,無圖 NOA 功能將在 7 月份進行全量推送;
此外,在 7 月份理想還將推送「全自動 AES 和全方位低速 AEB」;
那么,不妨一起來看看,如今開始深耕「City」智駕場景的理想無圖 NOA 到底「City 不 City」?全新的智駕技術架構又是否能夠領先行業一步?
在理想即將全量推送的 OTA 6.0.0 中,無圖 NOA 絕對是重頭戲。而理想也給出了他們的無圖 NOA 具備的四大能力:
默契安心:考慮用戶心理安全邊界,實現分米級微操,提升行車安全感和舒適度。
其實無圖 NOA,尤其是無圖城市 NOA 從今年開始一直是主流智駕玩家們的必爭之地。
像華為、小鵬早在此之前就已經推送了全國都能開的無圖城市 NOA 功能,而蔚來也早早推送了全域領航輔助 NOP+城區領航功能。
在以往的智駕系統中,先驗信息扮演著非常重要的一個角色。它能夠為車輛提供環境基礎數據,還為智駕系統的感知、決策提供了參考數據,而這些先驗信息可能會來源于高精度地圖、規控算法、歷史駕駛數據等等。
其實,即便是無圖 NOA 也并不等同于完全不依賴先驗信息,而是在減少對傳統高精度地圖依賴的同時,通過其他途徑獲取和利用先驗信息,來提高智能駕駛系統的性能。
所以,不依賴先驗信息的無圖 NOA 也意味著智駕系統能夠更加獨立地應對復雜多變的駕駛環境。
而理想無圖 NOA 則是將基于傳感器感知到的實時數據、導航提供的路線數據合并成超視距能力,以保證智駕系統能夠快速計算出最優行駛路線。
除此之外,理想的無圖 NOA 還更加注重用戶的「安全感」和「信任感」。理想的無圖 NOA 憑借其時空聯合規劃能力,實現了對障礙物的絲滑避讓和繞行。
時空聯合規劃能力能夠同時進行橫向和縱向空間的規劃,并且不斷預測自身車輛與其他車輛之間的空間交互關系,從而規劃出在一定時間窗口內的所有可行駛軌跡。增強了車輛在可行駛區域內的安全性和行駛連續性,而且實現了分米級的精細操控。
理想的無圖 NOA 從今年 5 月份開始便在首批千名體驗用戶中進行著測試,在今年 6 月份已經超過萬名用戶,同時也積累了上百萬公里的無圖 NOA 行駛數據。這些數據也為無圖 NOA 技術的不斷優化和完善提供了支持。
在理想 OTA 6.0.0 全量推送后,預計將會有超過 24 萬名理想 AD Max 車主能夠享受到理想全國都能跑的無圖 NOA 功能。
之前,幾家新勢力品牌的大佬在互聯網上曾經針對主動安全、AEB 這些話題吵得熱熱鬧鬧,網友們的評論和觀點也是沸沸揚揚。
在 AD Max 3.0 中,理想就通過大模型的能力讓 AEB 功能的工作速域更廣、剎停速度極限更高、物體識別能力更強。同時,還優化了 AEB 的誤觸發率。
那這次,除了帶來了無圖 NOA 功能之外,理想還發布了 AES 自動緊急轉向與全方位低速 AEB 的升級。
AES 自動緊急轉向功能能夠實現在不依賴駕駛員輔助扭力的前提下自動觸發,在車輛行駛速度較快且即將發生碰撞時自動緊急轉向,來避讓前方的障礙目標。
這也意味著在面對「消失的前車」、「隧道內故障車輛」、「前車急剎制動距離不夠」等緊急情況下,智駕系統能夠自主判斷并執行轉向操作,從而提高了緊急避障的響應速度。
全方位低速 AEB 則針對泊車和低速行車場景提供了主動安全防護,在復雜的地庫停車環境中,全方位低速 AEB 能夠識別前向、后向和側向的碰撞風險,及時進行緊急制動的介入。
全方位低速 AEB 功能的上車也拓展了主動安全的細分場景,減少在低速挪車及泊車出庫等場景下的事故。
同時,在這次發布會上理想也發布了由端到端模型、VLM(Visual Language Model)視覺語言模型和世界模型共同構成的全新智駕技術架構,并且將開啟早鳥計劃。
理想的全新智駕架構的技術路線是基于兩顆英偉達 Orin X 芯片分別用于兩套系統當中,其中包括了「快系統」端到端模型和「慢系統」VLM 視覺語言模型。
這套智駕技術路線的理論基礎源于諾貝爾經濟學獎得主丹尼爾·卡尼曼在《思考,快與慢》中提出的「系統 1」和「系統 2」的概念,其中:
系統 2 則代表了思維推理能力,人們需要借助思考和推理來處理復雜的問題和應對未知的場景。
端到端模型主要用于處理常規的駕駛行為,從傳感器的感知數據輸入到行駛軌跡的決策輸出只經過一個模型,能夠保證信息傳遞、推理計算的高效。
而且,端到端模型將具備更強的通用障礙物理解能力、超視距導航能力、道路結構理解能力以及更擬人的路徑規劃能力。
同時,理想還設計了能夠緩存更長時序視覺數據的流式視頻編碼器、增加了能夠緩存多幀歷史信息的記憶模塊以及智能駕駛 Prompt 提示庫。
必一運動官網
理想的 VLM 視覺語言模型參數量達到了 22 億,具備更強的邏輯思考能力,能夠對物理世界更為復雜的路況和道路環境進行理解。
VLM 視覺語言模型通過 Transformer 模型結合 Prompt 編碼從而實現了圖文對齊,再經過 VLM 視覺語言模型進行自回歸推理。
除此之外,世界模型則結合了重建和生成兩種技術路徑,從而構建了一個既能夠符合真實規律又能夠兼具泛化能力的虛擬環境。能夠為智駕系統的學習和測試提供支持,構建了一個智能駕駛迭代的高效閉環。
從特斯拉開始,端到端的上車一直是乘用車智能駕駛發展的未來發展方向。相比正在逐漸開始上車的 BEV+OCC 方案來說,理想這次端到端+VLM 方案的出現在一定程度上與大部分主流智駕玩家拉開了差距。
BEV+OCC 方案是通過多傳感器融合技術生成車輛周圍環境的 BEV 鳥瞰圖視角,再通過 OCC 占用網絡技術對周圍環境進行三維重建,并識別出可通行和不可通行的空間區域。
而端到端則是將感知、決策、規劃等多個環節融合到一個模型中,輸入原始數據直接輸出控制指令。VLM 視覺語言模型能夠對圖片或視頻中的信息進行解讀,能夠對場景和復雜事件進行識別和理解。
相比之下,BEV+OCC 需要較高的技術門檻和算力支持,尤其是在邊緣設備的推理效率上。同時,對于一些細小及不規則的障礙物可能會存在誤檢和漏檢的風險。
就比如,一些搭載了 BEV+ OCC 方案的車型可能會出現無法識別停車場和收費站的閘桿。
端到端+VLM 技術能夠減少信息傳遞的誤差也簡化了系統結構,但端到端模型非常依賴高質量的有效數據進行訓練,同時端到端模型的安全性驗證也更難,需要更多的測試和驗證來確保模型的安全性。
所以,從技術難度、創新性以及市場趨勢等維度來看,端到端+VLM 方案相比 BEV+OCC 要更加前沿。
但 BEV+OCC 方案作為目前更加成熟的技術方案,仍然會是大多數主機廠和智駕科技公司的選擇,并在一定時間內長期占據智駕市場的重要地位。
自 2021 年理想宣布啟動智駕系統的全棧自研,到如今理想再次回到了主流智駕玩家的前列,全新智駕技術架構的發布也讓理想成為了首個部署雙系統方案、首個實現 VLM 視覺語言模型上車的主機廠。
從無圖 NOA 的發布,到主動安全的升級,似乎理想正在智駕領域「叫板」華為。
乾崑 ADS 3.0 將基于 GOD 大網,實現從簡單的「識別障礙物」到深度的「理解駕駛場景」的跨越式升級。同時,乾崑 ADS 3.0 的全新架構也采用了 PDP 網絡,實現了決策和規劃更加擬人。
必一運動官網
能看出來,如今主流玩家尤其是新勢力品牌,與傳統品牌在智能駕駛領域的差距正在逐漸拉大。無論從技術實力、產品能力還是長遠規劃上,主流玩家們已經開始為「未來」做好了準備。