阿里开源发布千问Qwen3.5-Plus:架构革新推动多模态跃迁与推理效率显著提升

当前全球大模型竞争进入深水区,如何在保证性能的同时降低计算成本、提升推理效率,成为产业发展的关键课题。

阿里巴巴此次发布的千问3.5-Plus模型,正是对这一问题的系统性回答。

从参数规模看,千问3.5-Plus总参数为397亿,激活参数仅170亿。

这一设计突破了传统"参数越多性能越强"的认知局限。

通过采用混合专家架构与线性注意力机制的结合,该模型以不足40%的参数量实现了与前代万亿参数模型相当的性能表现。

在多项权威评测中,千问3.5的表现均处于业界领先水平。

在MMLU-Pro知识推理评测中得分87.8分,在博士级难题GPQA测评中获得88.4分,在指令遵循IFBench中刷新所有模型纪录。

这些成绩表明,模型效能的提升不必然依赖参数规模的无限扩张。

推理效率的提升是千问3.5的另一核心优势。

相比前代产品,该模型在32K上下文场景中推理吞吐量提升8.6倍,在256K超长上下文情况下最高提升至19倍。

这意味着在相同硬件条件下,用户可以处理更多的并发请求,显著降低了企业级应用的部署成本。

同时,部署显存占用降低60%,进一步减轻了基础设施压力。

从商业角度看,千问3.5的API价格每百万Token仅0.8元,相当于国际同类产品价格的1/18,这一定价策略有助于加速大模型技术的普及应用。

千问3.5实现了从纯文本模型向原生多模态模型的代际跃迁。

与前代产品基于纯文本Token预训练不同,千问3.5采用视觉与文本混合Token进行预训练,并大幅增加了中英文、多语言、STEM和推理等领域的训练数据。

这一转变使模型获得了更密集的世界知识和更强的推理逻辑能力。

在视觉能力方面,千问3.5在多模态推理、通用视觉问答、文本识别、空间智能、视频理解等多个权威评测中均获得最佳性能。

特别是在视频理解领域,该模型支持长达2小时的视频直接输入,可用于长视频内容分析与摘要生成。

在视觉编程方面,千问3.5实现了视觉理解与代码能力的原生融合,可将手绘界面草图直接转为可用的前端代码,一张截图即可定位并修复UI问题,展现出实际生产力工具的潜力。

千问3.5性能突破的技术基础在于对Transformer经典架构的创新。

阿里巴巴千问团队自研的门控技术曾获得全球AI顶会2025 NeurIPS最佳论文,该前沿技术已融入千问3.5的混合架构设计。

通过结合线性注意力机制与稀疏混合专家模型架构,团队实现了极致的模型效率。

此外,千问3.5还采用了训练稳定优化和多token预测等系列技术,进一步提升了推理性能。

在基础设施层面,千问3.5的原生多模态训练是在阿里云AI基础设施上高效完成的。

通过系列基础技术创新,该模型在文本、图像、视频等混合数据训练吞吐量上几近100%持平纯文本基座模型训练,大幅降低了原生多模态训练的难度门槛。

通过精巧的FP8、FP32精度应用策略,在训练扩展到数十万亿个token时,激活内存减少约50%,训练效率得到显著提升。

这些技术创新表明,大模型的发展方向正从单纯追求规模向追求效率与性能的均衡转变。

科技创新是推动高质量发展的核心动力。

Qwen3.5-Plus的问世,不仅展示了中国企业在人工智能领域的技术实力,更体现了从追赶到引领的发展态势。

在全球科技竞争日趋激烈的今天,持续加强基础研究、促进成果转化、构建开放生态,将是中国科技企业实现更大突破的关键所在。

这一创新成果也为数字经济时代的产业升级提供了新的技术支撑。