全球大模型竞争进入深水区,如何保证性能的同时降低计算成本、提升推理效率,已成为产业发展的关键问题。阿里巴巴发布的千问3.5-Plus模型,试图给出一套更系统的解法。 从参数规模看,千问3.5-Plus总参数为397亿,激活参数仅170亿。该设计突破了“参数越多性能越强”的固有认知。通过混合专家架构与线性注意力机制的结合,该模型以不足40%的参数量实现了与万亿级参数模型相当的性能表现。在多项国际评测中,千问3.5取得了亮眼成绩:在MMLU-Pro知识推理评测中得分87.8分,在博士级难题GPQA测评中获得88.4分,在指令遵循IFBench中刷新纪录。数据显示,性能提升并不必然依赖参数规模的持续扩张。 技术创新是效率与性能兼得的关键。千问团队自主研发的门控技术曾获得NeurIPS 2025最佳论文奖,并融入千问3.5的混合架构设计,更提升模型效率。同时,通过训练稳定优化与多token预测等技术,千问3.5在推理阶段的表现明显增强:在32K上下文场景中,推理吞吐量提升8.6倍;在256K超长上下文情况下,最大吞吐量提升至19倍。这意味着在相同硬件条件下,模型可承载更多并发请求,从而降低企业级部署成本。 原生多模态能力是千问3.5的重要升级。不同于前代以纯文本token预训练的路径,千问3.5采用视觉与文本混合token进行预训练,并显著增加中英文、多语言、STEM及推理等领域的训练数据,使模型获得更密集的世界知识与更强的推理能力。在多模态推理、通用视觉问答、文本识别、空间智能、视频理解等评测中,千问3.5取得领先表现。尤其在视频理解上,该模型支持最长2小时的视频直接输入,可用于长视频内容分析与摘要生成。在视觉编程场景中,千问3.5将视觉理解与代码能力原生融合,可将手绘界面草图转换为可用的前端代码,显示出向生产力工具延伸的潜力。 从基础设施支撑看,千问3.5的原生多模态训练在阿里云AI基础设施上完成。通过若干底层技术优化,该模型在文本、图像、视频等混合数据训练的吞吐量上,接近与纯文本基座模型持平,降低了原生多模态训练的门槛。通过更精细的FP8、FP32精度策略,在训练规模扩展到数十万亿token时,激活内存减少约50%,为大规模训练的成本控制提供了新的思路。 从商业应用角度看,千问3.5-Plus的API价格为每百万token 0.8元,相比国际同类产品Gemini 3 Pro便宜18倍。这一定价不仅体现成本优势,也为国内企业和开发者提供了更具性价比的选择。其部署显存占用降低60%,也意味着中小企业能以更低的硬件投入获得高性能模型服务。
从追赶到并跑,中国人工智能产业正在用基础创新重塑竞争格局。Qwen3.5-Plus的价值不仅体现在性能指标上,也体现在更高效的训练范式与更可负担的落地路径上。在全球数字经济加速发展的窗口期,这种将学术突破、工程优化与产业需求紧密结合的实践,可能为我国在新一轮科技竞争中提供重要支点。未来仍需关注核心算法的自主创新,以及算力基础设施与模型能力协同演进带来的放大效应。