
2025 年小米智能驾驶方案以自研技术为核心,同时整合了多家硬件与软件合作伙伴的能力,形成了一套覆盖全场景的端到端智驾系统。以下是具体技术架构和关键合作方的深度解析:
一、核心技术架构:端到端大模型与硬件分层策略
小米智能驾驶的核心是Xiaomi HAD(端到端全场景智能驾驶)系统,该系统采用“感知 - 决策 - 控制” 一体化架构,通过自研算法和硬件平台实现全链路优化。其技术突破体现在:
- 端到端大模型:
- 整合激光雷达、摄像头、毫米波雷达等多源数据,直接生成驾驶轨迹,减少传统模块化方案的信息传递延迟。例如,在复杂城市场景下,变道决策成功率提升至 99.3%,鬼探头识别准确率达 98.7%。
- 引入视觉语言大模型(VLM),支持语音交互和复杂场景理解(如施工路段、无保护左转),提升拟人化驾驶能力。
- 硬件分层配置:
- 标准版(SU7 后驱版):搭载 9 颗摄像头、1 颗毫米波雷达和英伟达 Orin N 芯片(算力 84TOPS),支持高速 NOA 和基础泊车辅助。
- 高阶版(SU7 Max/Ultra):增加 2 颗侧视摄像头、5 颗毫米波雷达和禾赛 AT128 激光雷达,配备双 Orin 芯片(总算力 508TOPS),支持城市 NOA、跨楼层泊车及 L3 级自动驾驶(2025 年计划落地)。
二、关键合作伙伴与技术生态
1. 硬件供应商
- 激光雷达:禾赛科技提供 AT128 超高清远距激光雷达,集成 128 个 VCSEL 激光器,探测距离达 300 米,支持复杂环境下的精准感知。
- 计算芯片:英伟达 Orin 芯片作为主算力平台,同时小米自研的 “赤兔 N1” 神经拟态芯片用于类脑决策,实现 0.8ms 级决策延迟。
- 传感器融合:四维图新为小米提供高精度地图数据和传感器融合算法,提升定位精度和复杂场景处理能力。
2. 通信与车路协同
- 5G+V2X:广和通为小米 SU7 提供 5G 模组,支持车辆与基础设施(V2X)通信,提升自动驾驶安全性和效率。
- 高精定位:早期与千寻位置合作车道级导航,2025 年可能延续高精度定位技术,结合北斗卫星系统实现亚米级定位。
3. 生态整合
- 小米 IoT 生态:车辆深度接入小米智能家居,例如通过 “归家模式” 自动控制家中设备,形成跨场景联动。
- 数据训练:基于小米生态链的百万级智能设备数据训练,优化智驾系统的场景适应性。
三、技术路线对比与行业定位
1. 与头部竞品的差异
- 华为 ADS:采用 “感知 - 高精地图 - 决策” 模块化方案,依赖高精地图且硬件成本较高;小米则主打无图方案,通过用户数据训练提升泛化能力。
- 小鹏 XNGP:强调城市 NOA 的场景覆盖,但小米通过端到端模型优化轨迹平滑度,减少急加速 / 急刹车,提升舒适性。
- 特斯拉 FSD:纯视觉路线,依赖海量数据训练;小米则采用 “视觉 + 激光雷达” 融合方案,平衡安全性与成本。
2. 行业地位
- L2 + 级辅助驾驶:当前小米 HAD 属于 L2 + 级,驾驶员需全程监控,但已实现高速、城市道路及泊车的全场景覆盖。
- L3 级规划:计划 2025 年推出 L3 级量产车型,但受限于法规,实际落地时间可能延迟。
四、用户体验与安全设计
- 功能覆盖:
- 高速场景:自动变道、超车、上下匝道,最高时速 135km/h,AEB 功能识别车辆、行人、二轮车。
- 城市道路:支持路口通行、无保护左转,但复杂场景接管率较高(路测显示优于部分竞品但仍需优化)。
- 泊车场景:车位到车位的代客泊车,支持记忆泊车、跨层泊车及漫游寻位。
- 安全机制:
- 要求用户完成 1000 公里以上安全智驾里程(含 ACC/LCC/ 高速 NOA)才能启用端到端功能。
- 引入 “人机共驾” 模式,系统明确区分控制权归属,紧急情况下驾驶员可随时接管。
五、未来挑战与迭代方向
- 数据闭环优化:端到端模型需海量数据训练,小米作为新玩家,数据积累不足,需加速构建用户数据生态。
- 法规与成本:L3 级自动驾驶落地受限于法规,同时激光雷达成本较高,需通过规模化生产降低硬件成本。
- 算法迭代:持续优化复杂场景(如匝道识别、环岛通行)的处理能力,提升系统鲁棒性。
总结
2025 年小米智驾方案以自研端到端大模型为核心,整合禾赛激光雷达、英伟达芯片、四维图新高精地图等硬件与技术,形成了覆盖全场景的 L2 + 级辅助驾驶系统。其差异化优势在于无图方案和小米生态联动,但在算法成熟度和复杂场景处理上仍需向华为、小鹏等头部企业追赶。未来,随着数据积累和法规完善,小米有望在 L3 级自动驾驶领域实现突破。
