[小米] 小米SU7車禍:叁名女大學生葬身車禍,誰的錯?
在他看來,國內車企從去年開始密集發布“純視覺”路線,更多還是出於降本考慮。“目前激光雷達的價格還在3000元—7000元之間,從車企采購零部件成本的角度來看,每增加1000元都拾分艱難。盡管有激光雷達廠商聲稱售價已在千元以下,但是前提是壹次性大量采購。”他認為,今年被視為智駕平權元年,這意味著智能駕駛成為“標配”,因此車企首先在較低價位車型放棄激光雷達。
智駕局限何在?
哪怕是同壹款車型,不同配置的輔助駕駛系統也不盡相同,但是車企在介紹壹款車型的輔助駕駛能力時,往往僅介紹其高配版本擁有的能力,而壹些低配版本甚至可能不搭載輔助駕駛系統。
車企的宣傳話術確實容易讓消費者喪失警惕。但是另壹方面,哪怕是壹款車具備輔助駕駛功能,人們也往往容易忽視其局限性。比如小米SU7叁款車型中,相比於Pro版、Max版,雖然標准版不配備激光雷達,車載算力更低,但是同樣具備高速NOA功能。
人們已經習慣於在高速場景使用輔助駕駛功能,但是近年數次高速車禍引發人們對於輔助駕駛的討論。
“高速NOA與城市NOA實現的難度可謂天壤之別。但是從風險角度來講,人類駕駛員在熟悉城市場景後,再到高速場景駕駛,但是輔助駕駛功能卻優先在高速場景推出。企業潛意識認為高速NOA容易達成,不過是將車道保持、定速巡航等功能組合。”前述業內人士表示。
即使是在當前較為成熟的高速場景,輔助駕駛依然有明顯短板。孫輝表示,在高速NOA中,比較常見的短板有施工、事故等突發場景應對不佳、異形車識別效果不理想、緊急避險策略較保守,也就是傾向於刹車,易導致被追尾事故。
其中,施工場景確實是高速NOA的重要局限,近年很多引發外界對於輔助駕駛討論的事故都發生在高速公路維修路段。
“車企還沒有認真對待道路維修工況,比如AEB對於錐桶、水馬等無法正常響應,根源在於對於這樣的場景訓練不足。高速公路維修路段是壹個典型的Corner case(邊緣場景),車企沒有針對這種場景采集到足夠多的數據,甚至沒有對這些數據進行處理。”前述學者認為。
他表示,首先,高速公路維修路段到來前,會在沿途LED顯示屏上提示,但是恐怕沒有輔助駕駛系統會識別提示文字。其次,在維修路段,會設置道路指引標識牌,系統能否識別這樣的標識牌也存在疑問。再次,維修道路往往會安排漸進式限速,比如此次發生事故的維修路段,限速40公裡/小時。但是這些限速標識牌往往並不規范,駕駛員看到限速從120公裡/小時逐漸下降到80公裡/小時、60公裡/小時、40公裡/小時的時候能准確理解,但是輔助駕駛系統可能難以連貫地理解這些漸近式限速標識牌。“目前智駕系統在使用Transformer模型時,盡管算法已經改進,但由於車載算力有限,壹般也只會關聯前後4幀,約40毫秒的信息,這意味系統的‘記憶’有限,而由於系統默認在高速公路行駛,並不會識別這些限速標識。因此與其盯住事故發生前的最後叁秒,不如多去問問,為什麼此前車輛並未減速。”
正是因為像高速公路施工這樣的邊緣場景仍然存在,真正的自動駕駛才難以到來。汽車自動駕駛技術被劃分為L0至L5六個級別,L3級是分界線,L3級及以上為自動駕駛。盡管國內車企不斷推出L2+、L2.9等概念,但是仍然稱不上自動駕駛。
“不要說還剩下1%的邊緣場景,哪怕只剩下0.01%的邊緣場景,依然不能離開駕駛員。”前述業內人士感慨,沒有人能回答還剩下多少待解決的邊緣場景。
真正實現自動駕駛就需要解決邊緣場景的問題,不過這並非易事。對於駕駛而言,人工智能與人類容易犯的錯誤不同。人類最容易犯的錯誤是疲勞駕駛、分心駕駛,系統既不會疲勞,也不會分心,而是取決於訓練。但是由於車載算力的限制,大模型、推理模型目前還難以應用於車端,車端更多應用深度學習模型,其不具備大模型、推理模型的泛化、推理能力,因此更容易在邊緣場景出現問題,也就是所謂的“黑天鵝問題”,如果在天鵝這壹標簽下錄入1萬張白天鵝照片,深度學習模型不會將壹只黑天鵝照片識別為天鵝,從而出現誤判。
特斯拉最初希望通過“大力出奇跡”的方式解決這壹問題,特斯拉FSD V12版本已經覆蓋30億公裡的行駛裡程數據,V13版本的下壹個目標是覆蓋約100億公裡的行駛裡程數據,但是這顯然沒有窮盡所有駕駛場景。
前述學者告訴記者,目前,像理想等車企也在嘗試將視覺語言模型與現有的深度學習模型相結合,賦予系統壹定推理能力,從而解決“黑天鵝問題”,但這仍取決於車端算力的突破。深度學習模型的參數級別約為10億級,而所謂大模型的參數級別至少在百億級。今年車載算力應該會突破1000 TOPS,接近1500 TOPS,也就是使用兩顆英偉達Thor芯片,而明年可能會突破2000 TOPS,這意味著比較好的推理模型可以“上車”。“隨著車載算力的提升,以及智能駕駛模型的進步,邊緣場景的問題有可能被更好地解決。”
[物價飛漲的時候 這樣省錢購物很爽]
這條新聞還沒有人評論喔,等著您的高見呢
智駕局限何在?
哪怕是同壹款車型,不同配置的輔助駕駛系統也不盡相同,但是車企在介紹壹款車型的輔助駕駛能力時,往往僅介紹其高配版本擁有的能力,而壹些低配版本甚至可能不搭載輔助駕駛系統。
車企的宣傳話術確實容易讓消費者喪失警惕。但是另壹方面,哪怕是壹款車具備輔助駕駛功能,人們也往往容易忽視其局限性。比如小米SU7叁款車型中,相比於Pro版、Max版,雖然標准版不配備激光雷達,車載算力更低,但是同樣具備高速NOA功能。
人們已經習慣於在高速場景使用輔助駕駛功能,但是近年數次高速車禍引發人們對於輔助駕駛的討論。
“高速NOA與城市NOA實現的難度可謂天壤之別。但是從風險角度來講,人類駕駛員在熟悉城市場景後,再到高速場景駕駛,但是輔助駕駛功能卻優先在高速場景推出。企業潛意識認為高速NOA容易達成,不過是將車道保持、定速巡航等功能組合。”前述業內人士表示。
即使是在當前較為成熟的高速場景,輔助駕駛依然有明顯短板。孫輝表示,在高速NOA中,比較常見的短板有施工、事故等突發場景應對不佳、異形車識別效果不理想、緊急避險策略較保守,也就是傾向於刹車,易導致被追尾事故。
其中,施工場景確實是高速NOA的重要局限,近年很多引發外界對於輔助駕駛討論的事故都發生在高速公路維修路段。
“車企還沒有認真對待道路維修工況,比如AEB對於錐桶、水馬等無法正常響應,根源在於對於這樣的場景訓練不足。高速公路維修路段是壹個典型的Corner case(邊緣場景),車企沒有針對這種場景采集到足夠多的數據,甚至沒有對這些數據進行處理。”前述學者認為。
他表示,首先,高速公路維修路段到來前,會在沿途LED顯示屏上提示,但是恐怕沒有輔助駕駛系統會識別提示文字。其次,在維修路段,會設置道路指引標識牌,系統能否識別這樣的標識牌也存在疑問。再次,維修道路往往會安排漸進式限速,比如此次發生事故的維修路段,限速40公裡/小時。但是這些限速標識牌往往並不規范,駕駛員看到限速從120公裡/小時逐漸下降到80公裡/小時、60公裡/小時、40公裡/小時的時候能准確理解,但是輔助駕駛系統可能難以連貫地理解這些漸近式限速標識牌。“目前智駕系統在使用Transformer模型時,盡管算法已經改進,但由於車載算力有限,壹般也只會關聯前後4幀,約40毫秒的信息,這意味系統的‘記憶’有限,而由於系統默認在高速公路行駛,並不會識別這些限速標識。因此與其盯住事故發生前的最後叁秒,不如多去問問,為什麼此前車輛並未減速。”
正是因為像高速公路施工這樣的邊緣場景仍然存在,真正的自動駕駛才難以到來。汽車自動駕駛技術被劃分為L0至L5六個級別,L3級是分界線,L3級及以上為自動駕駛。盡管國內車企不斷推出L2+、L2.9等概念,但是仍然稱不上自動駕駛。
“不要說還剩下1%的邊緣場景,哪怕只剩下0.01%的邊緣場景,依然不能離開駕駛員。”前述業內人士感慨,沒有人能回答還剩下多少待解決的邊緣場景。
真正實現自動駕駛就需要解決邊緣場景的問題,不過這並非易事。對於駕駛而言,人工智能與人類容易犯的錯誤不同。人類最容易犯的錯誤是疲勞駕駛、分心駕駛,系統既不會疲勞,也不會分心,而是取決於訓練。但是由於車載算力的限制,大模型、推理模型目前還難以應用於車端,車端更多應用深度學習模型,其不具備大模型、推理模型的泛化、推理能力,因此更容易在邊緣場景出現問題,也就是所謂的“黑天鵝問題”,如果在天鵝這壹標簽下錄入1萬張白天鵝照片,深度學習模型不會將壹只黑天鵝照片識別為天鵝,從而出現誤判。
特斯拉最初希望通過“大力出奇跡”的方式解決這壹問題,特斯拉FSD V12版本已經覆蓋30億公裡的行駛裡程數據,V13版本的下壹個目標是覆蓋約100億公裡的行駛裡程數據,但是這顯然沒有窮盡所有駕駛場景。
前述學者告訴記者,目前,像理想等車企也在嘗試將視覺語言模型與現有的深度學習模型相結合,賦予系統壹定推理能力,從而解決“黑天鵝問題”,但這仍取決於車端算力的突破。深度學習模型的參數級別約為10億級,而所謂大模型的參數級別至少在百億級。今年車載算力應該會突破1000 TOPS,接近1500 TOPS,也就是使用兩顆英偉達Thor芯片,而明年可能會突破2000 TOPS,這意味著比較好的推理模型可以“上車”。“隨著車載算力的提升,以及智能駕駛模型的進步,邊緣場景的問題有可能被更好地解決。”
[物價飛漲的時候 這樣省錢購物很爽]
| 分享: |
| 注: | 在此頁閱讀全文 |
| 延伸閱讀 | 更多... |
推薦: