小米汽车的智能驾驶方案以自主研发的 Xiaomi HAD(端到端全场景智能驾驶)为核心要旨,协同硬件分层配置与端到端大模型技术,构筑了涵盖高速、城市道路以及泊车场景的全链路解决之策。以下乃是其技术方案、硬件配置以及实际水平的详尽剖析:

一、智驾方案:端到端大模型 + 纯视觉路线
1. 核心技术架构
- 端到端全场景智驾:小米 HAD 采用端到端大模型架构,将感知、预测、规划这三个环节整合为单一的 AI 模型,直接通过原始数据生成最终驾驶轨迹。相比传统模块化方案,减少了信息传输误差,提升决策效率。
- 视觉语言大模型(VLM):接入 VLM 模型后,系统可识别复杂场景(如施工路段、丁字路口),并通过语音与用户交互,优化复杂场景下的决策能力。
- 无图方案:基于用户驾驶数据训练,无需依赖高精地图,可在无图区域实现拟人化轨迹规划,提升通行效率。

2. 功能覆盖
- 高速 NOA:支持高速自动变道、超车、上下匝道,最高时速 135km/h,AEB 功能能够识别车辆、行人、二轮车。
- 城市道路:2025 年 2 月全量推送端到端功能后,支持城区路口通行、无保护左转等场景,但实际路测显示复杂场景接管率较高。
- 泊车场景:实现车位到车位的代客泊车,支持记忆泊车、跨层泊车及漫游寻位(车位被占时自动寻找新车位)。
二、硬件配置:分层设计,传感器差异显著
小米汽车根据车型版本,将智驾硬件分为标准版与高阶版,核心差异在于激光雷达与算力芯片:
1. 标准版(SU7 后驱标准长续航智驾版)
- 传感器:摄像头:9 颗(2 前视 + 3 仰视 + 4 环视 + 1 后视)。毫米波雷达:1 颗(前向)。超声波雷达:12 颗。无激光雷达。
- 计算平台:1 颗英伟达 Orin N 芯片,算力 84TOPS。
- 功能限制:仅支持高速 NOA、基础泊车辅助,不支持端到端全场景智驾。
2. 高阶版(SU7 Max/Ultra)
- 传感器:摄像头:11 颗(增加 2 颗侧视摄像头)。毫米波雷达:5 颗(前向 + 4 角)。激光雷达:1 颗(车顶)。超声波雷达:12 颗。
- 计算平台:2 颗英伟达 Orin 芯片,总算力 508TOPS。
- 功能:支持端到端全场景智驾、城市 NOA 及 L3 级自动驾驶(2025 年计划落地)。

三、技术水平:L2 级辅助驾驶
1. 官方定位
- L2 级辅助驾驶:根据应急管理部及行业标准,小米 HAD 属于 L2 级,驾驶员需全程监控车辆。
- L3 级规划:2025 年计划推出 L3 级量产车型,但受限于法规,暂未落地。
2. 实际表现
- 优势:拟人化驾驶:端到端模型优化轨迹平滑度,减少急加速 / 急刹车。泊车能力:车位到车位功能在特定场景下可用性较高。
- 不足:感知局限性:纯视觉方案对锥桶、水马等障碍物识别不足,事故中 AEB 未触发。复杂场景依赖接管:路测显示,小米 SU7 在匝道识别、无保护左转等场景需频繁接管,综合评分低于小鹏、华为等竞品。硬件冗余不足:标准版缺乏激光雷达,夜间或雨雾天气感知能力受限。
四、行业对比与挑战
1. 竞品对比
- 小鹏、华为:采用激光雷达 + 多传感器融合方案,端到端技术成熟度更高,路测表现更优。
- 特斯拉:同样采用纯视觉路线,但 FSD 在复杂场景适应性上更优,小米 HAD 仍处于追赶阶段。
- 上汽集团:旗下智己汽车搭载 VMC 数字底盘及多智驾方案(如地平线、Momenta),硬件冗余与场景覆盖优于小米。
2. 核心挑战
- 技术迭代压力:端到端大模型需海量数据训练,小米作为新玩家,数据积累不足。
- 安全争议:事故暴露纯视觉方案的局限性,用户对智驾信任度受影响。
- 法规与成本平衡:L3 级功能落地需政策支持,而激光雷达等硬件增加成本,影响普及。
五、总结:自研突围,任重道远
小米汽车通过端到端大模型 + 硬件分层策略,在智驾领域实现了从 0 到 1 的突破,但其纯视觉路线的局限性及实际表现仍需提升。未来,若能在激光雷达成本控制、数据闭环优化及法规适配方面取得进展,有望在 L3 级自动驾驶竞争中占据一席之地。对于消费者而言,当前小米 HAD 更适合作为辅助工具,而非完全替代人工驾驶。
评论·0