
小米SU7系列推送1000万Clips端到端辅助驾驶
小米SU7系列推出了一项重要的技术更新,即端到端辅助驾驶系统,该系统配备了高达千万级别的Clips推送功能,这项技术的推出旨在提高驾驶的安全性和便利性,通过智能辅助驾驶系统,帮助驾驶员更好地掌握路况信息,提高行车安全性,这一创新技术将极大地改善驾驶体验,为驾驶者带来更加智能、高效的驾驶体验。
7月29日消息,今日,小米汽车宣布,1000万Clips版本小米端到端辅助驾驶(YU7全系出厂即搭载),面向小米SU7系列已开始推送,支持小米SU7 Pro,Max,Ultra车型。
小米汽车表示,小米是行业首批量产1000万Clips版端到端辅助驾驶的品牌,对比此前发布的300 万Clips版本,1000万Clips版小米端到端辅助驾驶系统的细节体验全面升级,其中:
纵向舒适度提升57%,加减速控制更线性,拥堵跟车频繁启停时也不易晕车;
绕行成功率提升67%,绕行决策果断、路线规划精准,窄路场景下碰到占道临停或会车绕行也游刃有余;
路口通过率提升23%,更理解中国路口的“游戏规则,人车混杂的城中村、老街区也顺利穿行。
同时,1000万Clips版小米端到端辅助驾驶也在高速场景有了明显优化,升级后的高速领航辅助功能运行更稳定,体感更舒适。
那什么是Clips呢?简单来说,Clips指的是记录了驾驶行为的视频片段,其中包含由激光雷达、摄像头、毫米波雷达等多种传感器同步记录的多模态数据,长度一般为30秒至1分钟。
Clips有什么用?众所周知,端到端大模型是一种由数据驱动的辅助驾驶技术架构。所谓数据驱动,是指端到端大模型通过对已有驾驶行为的学习,提炼出相应的驾驶策略,因此它高度依赖大规模的数据训练,而Clips就是端到端大模型的训练素材。
如果把未经训练的端到端大模型比喻成一个刚报班学驾照的开车小白,Clips就类似于TA在训练过程中积累的经验,系统学习的场景越多,经验条越长,级别越高,驾驶技术就越高超。
一句话概括,在Clips的数量形成规模后,如达到1000万这个量级,端到端大模型控车越自然流畅,乘坐感受越像老司机在开车。
而1000万Clips,顾名思义,指的是有1000万段视频片段。端到端大模型通过海量素材的训练,归纳总结出足量的驾驶策略,从而让系统从容应对路上的各种情况。
但是,单纯的题海战术容易陷入低效陷阱,就像让备战高考的高中生天天练100以内加减法,练得再多,恐怕也很难考上心仪的大学。
1000万Clips的核心是为端到端大模型提供充分、有效的训练素材数据,其中不仅要包含城市道路、高速等交通秩序规范的常见场景,也要包含尽可能多的困难场景,更要保证处理这些场景时的驾驶行为要足够安全、舒适。
此外,小米汽车也呼吁,辅助驾驶现阶段不是自动驾驶,请广大用户正确理解和使用相关辅助驾驶功能,始终确保在紧急必要时控制车辆。