首页 业界 2026 年,智能汽车正式进入“端云协同”的分水岭

2026 年,智能汽车正式进入“端云协同”的分水岭

2026年,端云协同将成为智能汽车能否落地的关键,而阿里云正站在这条趋势的最前沿。

为什么 2026 年是关键节点?因为众多要素条件在同一时间接近成熟。

车端算力的上限突破。随着高通、英伟达等厂商持续推升车规级 SoC 的计算能力,车载芯片第一次在功耗、成本与稳定性之间,找到了一个相对可行的平衡点。

过去很长一段时间里,端侧 AI 在汽车上“不成立”,并不是因为需求不存在,而是因为算力、能耗和可靠性无法同时满足车规要求。新一代车载计算平台逐步量产,语音、多模态感知、基础推理等能力开始真正跑在车端,且具备持续可用性。

与此同时,大模型的“性价比”仍在快速提升。过去制约大模型上车的核心矛盾在于:小参数模型效果不够好,而汽车端侧的算力与功耗条件,又不足以支撑大参数模型稳定运行,二者长期无法兼得。结果是,大模型要么停留在云端,要么只能在车端以“精简版”的形式存在。

如前所述,车端算力提高的同时,模型也在优化,模型架构优化、推理效率提升以及量化、蒸馏等技术逐步成熟,在更小参数规模下实现接近甚至超出以往大参数的大模型效果,大模型具备真正“上车”的工程可行性,不再依赖极端算力堆叠,也不以牺牲体验为代价,而是在车端算力可承受的范围内,提供稳定、可预期的智能能力。

在这种情况下,主机厂逐步确定自己的智能化供应商,结合行业来看,企业并不满足于单点能力供应,而是希望在行业未来还不确定的情况下,找到一份更确定的答案,厂商是否有长期投入和系统级布局,成为决定性因素。

阿里云在智能汽车领域的优势,正体现在端云协同的完整布局上。在端侧,阿里云能够提供强大的模型选择,覆盖从多模态感知、语音理解到实时决策的多种应用场景,使车辆在有限算力下依然能稳定、高效地执行复杂任务。

从2023年至今,阿里通义团队已开源300多款模型,包含大语言模型千问Qwen及视觉生成模型万相Wan等两大基模系列,开源囊括文本生成模型、视觉理解/生成模型、语音理解/生成模型、文生图及视频模型等「全模态」,覆盖0.5B、0.6B、1.5B、1.7B、3B、4B、7B、8B、14B、30B、32B、72B、110B、235B、480B等「全尺寸」参数,支持中、英、法、德、西、俄、日、韩、越、阿拉伯等119种语言及方言。

2025年,通义团队首发Qwen3-Omni原生全模态大模型,纯模型端到端音频对话延迟低至211ms,该模型一经推出,迅速得到车企认可,几乎所有车企都开始测试Qwen3-Omni上车。

在云侧,阿里云提供领先的 AI 云服务,包括大规模训练、开源大模型以及持续迭代能力,为端侧模型的长期进化和能力更新提供动力。

阿里巴巴集团CEO吴泳铭日前宣布,未来三年,阿里将投入超过3800亿元,用于建设云和AI硬件基础设施,总额超过去十年总和。这也创下中国民营企业在云和AI硬件基础设施建设领域有史以来最大规模投资纪录。

这种端云结合的模式,不仅保障了车辆在关键场景下的安全与确定性,也让智能汽车具备了持续进化的能力,为车企提供了可落地、可扩展、可持续的整体解决方案。

端云协同,于云厂商而言是一次真正的洗牌。端云协同考验的已经不只是模型能力,而是“安全优先”的系统设计逻辑,车规级云基础设施,支撑高并发、低延迟的智能调度,足够大的生态,支撑真实生活场景等,阿里云踩中了中国车企当前最核心的需求。

本网所刊登文章,除原创频道外,若无特别版权声明,均来自网络转载; 文章观点不代表本网立场,其真实性由稿源方负责; 如果您对稿件和图片等有版权及其它争议,请及时与我们联系,我们将核实情况后进行相关删除。 文章内容仅供参考,不构成投资建议。投资者据此操作,风险自担。 【本文资讯为广告信息,不代表本网立场】 https://www.136n.com/yejie/2025/1230/29490.html
上一篇
下一篇

作者: 作者戴笠

(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。

为您推荐

发表回复

联系我们

联系我们

工作时间:周一至周五,9:00-17:30,节假日休息

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部