[小米] 小米SU7车祸:三名女大学生葬身车祸,谁的错?
在他看来,国内车企从去年开始密集发布“纯视觉”路线,更多还是出于降本考虑。“目前激光雷达的价格还在3000元—7000元之间,从车企采购零部件成本的角度来看,每增加1000元都十分艰难。尽管有激光雷达厂商声称售价已在千元以下,但是前提是一次性大量采购。”他认为,今年被视为智驾平权元年,这意味着智能驾驶成为“标配”,因此车企首先在较低价位车型放弃激光雷达。
智驾局限何在?
哪怕是同一款车型,不同配置的辅助驾驶系统也不尽相同,但是车企在介绍一款车型的辅助驾驶能力时,往往仅介绍其高配版本拥有的能力,而一些低配版本甚至可能不搭载辅助驾驶系统。
车企的宣传话术确实容易让消费者丧失警惕。但是另一方面,哪怕是一款车具备辅助驾驶功能,人们也往往容易忽视其局限性。比如小米SU7三款车型中,相比于Pro版、Max版,虽然标准版不配备激光雷达,车载算力更低,但是同样具备高速NOA功能。
人们已经习惯于在高速场景使用辅助驾驶功能,但是近年数次高速车祸引发人们对于辅助驾驶的讨论。
“高速NOA与城市NOA实现的难度可谓天壤之别。但是从风险角度来讲,人类驾驶员在熟悉城市场景后,再到高速场景驾驶,但是辅助驾驶功能却优先在高速场景推出。企业潜意识认为高速NOA容易达成,不过是将车道保持、定速巡航等功能组合。”前述业内人士表示。
即使是在当前较为成熟的高速场景,辅助驾驶依然有明显短板。孙辉表示,在高速NOA中,比较常见的短板有施工、事故等突发场景应对不佳、异形车识别效果不理想、紧急避险策略较保守,也就是倾向于刹车,易导致被追尾事故。
其中,施工场景确实是高速NOA的重要局限,近年很多引发外界对于辅助驾驶讨论的事故都发生在高速公路维修路段。
“车企还没有认真对待道路维修工况,比如AEB对于锥桶、水马等无法正常响应,根源在于对于这样的场景训练不足。高速公路维修路段是一个典型的Corner case(边缘场景),车企没有针对这种场景采集到足够多的数据,甚至没有对这些数据进行处理。”前述学者认为。
他表示,首先,高速公路维修路段到来前,会在沿途LED显示屏上提示,但是恐怕没有辅助驾驶系统会识别提示文字。其次,在维修路段,会设置道路指引标识牌,系统能否识别这样的标识牌也存在疑问。再次,维修道路往往会安排渐进式限速,比如此次发生事故的维修路段,限速40公里/小时。但是这些限速标识牌往往并不规范,驾驶员看到限速从120公里/小时逐渐下降到80公里/小时、60公里/小时、40公里/小时的时候能准确理解,但是辅助驾驶系统可能难以连贯地理解这些渐近式限速标识牌。“目前智驾系统在使用Transformer模型时,尽管算法已经改进,但由于车载算力有限,一般也只会关联前后4帧,约40毫秒的信息,这意味系统的‘记忆’有限,而由于系统默认在高速公路行驶,并不会识别这些限速标识。因此与其盯住事故发生前的最后三秒,不如多去问问,为什么此前车辆并未减速。”
正是因为像高速公路施工这样的边缘场景仍然存在,真正的自动驾驶才难以到来。汽车自动驾驶技术被划分为L0至L5六个级别,L3级是分界线,L3级及以上为自动驾驶。尽管国内车企不断推出L2+、L2.9等概念,但是仍然称不上自动驾驶。
“不要说还剩下1%的边缘场景,哪怕只剩下0.01%的边缘场景,依然不能离开驾驶员。”前述业内人士感慨,没有人能回答还剩下多少待解决的边缘场景。
真正实现自动驾驶就需要解决边缘场景的问题,不过这并非易事。对于驾驶而言,人工智能与人类容易犯的错误不同。人类最容易犯的错误是疲劳驾驶、分心驾驶,系统既不会疲劳,也不会分心,而是取决于训练。但是由于车载算力的限制,大模型、推理模型目前还难以应用于车端,车端更多应用深度学习模型,其不具备大模型、推理模型的泛化、推理能力,因此更容易在边缘场景出现问题,也就是所谓的“黑天鹅问题”,如果在天鹅这一标签下录入1万张白天鹅照片,深度学习模型不会将一只黑天鹅照片识别为天鹅,从而出现误判。
特斯拉最初希望通过“大力出奇迹”的方式解决这一问题,特斯拉FSD V12版本已经覆盖30亿公里的行驶里程数据,V13版本的下一个目标是覆盖约100亿公里的行驶里程数据,但是这显然没有穷尽所有驾驶场景。
前述学者告诉记者,目前,像理想等车企也在尝试将视觉语言模型与现有的深度学习模型相结合,赋予系统一定推理能力,从而解决“黑天鹅问题”,但这仍取决于车端算力的突破。深度学习模型的参数级别约为10亿级,而所谓大模型的参数级别至少在百亿级。今年车载算力应该会突破1000 TOPS,接近1500 TOPS,也就是使用两颗英伟达Thor芯片,而明年可能会突破2000 TOPS,这意味着比较好的推理模型可以“上车”。“随着车载算力的提升,以及智能驾驶模型的进步,边缘场景的问题有可能被更好地解决。”
[加西网正招聘多名全职sales 待遇优]
这条新闻还没有人评论喔,等着您的高见呢
智驾局限何在?
哪怕是同一款车型,不同配置的辅助驾驶系统也不尽相同,但是车企在介绍一款车型的辅助驾驶能力时,往往仅介绍其高配版本拥有的能力,而一些低配版本甚至可能不搭载辅助驾驶系统。
车企的宣传话术确实容易让消费者丧失警惕。但是另一方面,哪怕是一款车具备辅助驾驶功能,人们也往往容易忽视其局限性。比如小米SU7三款车型中,相比于Pro版、Max版,虽然标准版不配备激光雷达,车载算力更低,但是同样具备高速NOA功能。
人们已经习惯于在高速场景使用辅助驾驶功能,但是近年数次高速车祸引发人们对于辅助驾驶的讨论。
“高速NOA与城市NOA实现的难度可谓天壤之别。但是从风险角度来讲,人类驾驶员在熟悉城市场景后,再到高速场景驾驶,但是辅助驾驶功能却优先在高速场景推出。企业潜意识认为高速NOA容易达成,不过是将车道保持、定速巡航等功能组合。”前述业内人士表示。
即使是在当前较为成熟的高速场景,辅助驾驶依然有明显短板。孙辉表示,在高速NOA中,比较常见的短板有施工、事故等突发场景应对不佳、异形车识别效果不理想、紧急避险策略较保守,也就是倾向于刹车,易导致被追尾事故。
其中,施工场景确实是高速NOA的重要局限,近年很多引发外界对于辅助驾驶讨论的事故都发生在高速公路维修路段。
“车企还没有认真对待道路维修工况,比如AEB对于锥桶、水马等无法正常响应,根源在于对于这样的场景训练不足。高速公路维修路段是一个典型的Corner case(边缘场景),车企没有针对这种场景采集到足够多的数据,甚至没有对这些数据进行处理。”前述学者认为。
他表示,首先,高速公路维修路段到来前,会在沿途LED显示屏上提示,但是恐怕没有辅助驾驶系统会识别提示文字。其次,在维修路段,会设置道路指引标识牌,系统能否识别这样的标识牌也存在疑问。再次,维修道路往往会安排渐进式限速,比如此次发生事故的维修路段,限速40公里/小时。但是这些限速标识牌往往并不规范,驾驶员看到限速从120公里/小时逐渐下降到80公里/小时、60公里/小时、40公里/小时的时候能准确理解,但是辅助驾驶系统可能难以连贯地理解这些渐近式限速标识牌。“目前智驾系统在使用Transformer模型时,尽管算法已经改进,但由于车载算力有限,一般也只会关联前后4帧,约40毫秒的信息,这意味系统的‘记忆’有限,而由于系统默认在高速公路行驶,并不会识别这些限速标识。因此与其盯住事故发生前的最后三秒,不如多去问问,为什么此前车辆并未减速。”
正是因为像高速公路施工这样的边缘场景仍然存在,真正的自动驾驶才难以到来。汽车自动驾驶技术被划分为L0至L5六个级别,L3级是分界线,L3级及以上为自动驾驶。尽管国内车企不断推出L2+、L2.9等概念,但是仍然称不上自动驾驶。
“不要说还剩下1%的边缘场景,哪怕只剩下0.01%的边缘场景,依然不能离开驾驶员。”前述业内人士感慨,没有人能回答还剩下多少待解决的边缘场景。
真正实现自动驾驶就需要解决边缘场景的问题,不过这并非易事。对于驾驶而言,人工智能与人类容易犯的错误不同。人类最容易犯的错误是疲劳驾驶、分心驾驶,系统既不会疲劳,也不会分心,而是取决于训练。但是由于车载算力的限制,大模型、推理模型目前还难以应用于车端,车端更多应用深度学习模型,其不具备大模型、推理模型的泛化、推理能力,因此更容易在边缘场景出现问题,也就是所谓的“黑天鹅问题”,如果在天鹅这一标签下录入1万张白天鹅照片,深度学习模型不会将一只黑天鹅照片识别为天鹅,从而出现误判。
特斯拉最初希望通过“大力出奇迹”的方式解决这一问题,特斯拉FSD V12版本已经覆盖30亿公里的行驶里程数据,V13版本的下一个目标是覆盖约100亿公里的行驶里程数据,但是这显然没有穷尽所有驾驶场景。
前述学者告诉记者,目前,像理想等车企也在尝试将视觉语言模型与现有的深度学习模型相结合,赋予系统一定推理能力,从而解决“黑天鹅问题”,但这仍取决于车端算力的突破。深度学习模型的参数级别约为10亿级,而所谓大模型的参数级别至少在百亿级。今年车载算力应该会突破1000 TOPS,接近1500 TOPS,也就是使用两颗英伟达Thor芯片,而明年可能会突破2000 TOPS,这意味着比较好的推理模型可以“上车”。“随着车载算力的提升,以及智能驾驶模型的进步,边缘场景的问题有可能被更好地解决。”
[加西网正招聘多名全职sales 待遇优]
| 分享: |
| 注: | 在此页阅读全文 |
| 延伸阅读 | 更多... |
推荐: