当前全球大模型竞争进入深水区,如何在保证性能的同时降低计算成本、提升推理效率,成为产业发展的关键课题。
阿里巴巴此次发布的千问3.5-Plus模型,正是对这一问题的系统性回答。
从参数规模看,千问3.5-Plus总参数为397亿,激活参数仅170亿。
这一设计突破了传统"参数越多性能越强"的认知局限。
通过采用混合专家架构与线性注意力机制的结合,该模型以不足40%的参数量实现了与前代万亿参数模型相当的性能表现。
在多项权威评测中,千问3.5的表现均处于业界领先水平。
在MMLU-Pro知识推理评测中得分87.8分,在博士级难题GPQA测评中获得88.4分,在指令遵循IFBench中刷新所有模型纪录。
这些成绩表明,模型效能的提升不必然依赖参数规模的无限扩张。
推理效率的提升是千问3.5的另一核心优势。
相比前代产品,该模型在32K上下文场景中推理吞吐量提升8.6倍,在256K超长上下文情况下最高提升至19倍。
这意味着在相同硬件条件下,用户可以处理更多的并发请求,显著降低了企业级应用的部署成本。
同时,部署显存占用降低60%,进一步减轻了基础设施压力。
从商业角度看,千问3.5的API价格每百万Token仅0.8元,相当于国际同类产品价格的1/18,这一定价策略有助于加速大模型技术的普及应用。
千问3.5实现了从纯文本模型向原生多模态模型的代际跃迁。
与前代产品基于纯文本Token预训练不同,千问3.5采用视觉与文本混合Token进行预训练,并大幅增加了中英文、多语言、STEM和推理等领域的训练数据。
这一转变使模型获得了更密集的世界知识和更强的推理逻辑能力。
在视觉能力方面,千问3.5在多模态推理、通用视觉问答、文本识别、空间智能、视频理解等多个权威评测中均获得最佳性能。
特别是在视频理解领域,该模型支持长达2小时的视频直接输入,可用于长视频内容分析与摘要生成。
在视觉编程方面,千问3.5实现了视觉理解与代码能力的原生融合,可将手绘界面草图直接转为可用的前端代码,一张截图即可定位并修复UI问题,展现出实际生产力工具的潜力。
千问3.5性能突破的技术基础在于对Transformer经典架构的创新。
阿里巴巴千问团队自研的门控技术曾获得全球AI顶会2025 NeurIPS最佳论文,该前沿技术已融入千问3.5的混合架构设计。
通过结合线性注意力机制与稀疏混合专家模型架构,团队实现了极致的模型效率。
此外,千问3.5还采用了训练稳定优化和多token预测等系列技术,进一步提升了推理性能。
在基础设施层面,千问3.5的原生多模态训练是在阿里云AI基础设施上高效完成的。
通过系列基础技术创新,该模型在文本、图像、视频等混合数据训练吞吐量上几近100%持平纯文本基座模型训练,大幅降低了原生多模态训练的难度门槛。
通过精巧的FP8、FP32精度应用策略,在训练扩展到数十万亿个token时,激活内存减少约50%,训练效率得到显著提升。
这些技术创新表明,大模型的发展方向正从单纯追求规模向追求效率与性能的均衡转变。
科技创新是推动高质量发展的核心动力。
Qwen3.5-Plus的问世,不仅展示了中国企业在人工智能领域的技术实力,更体现了从追赶到引领的发展态势。
在全球科技竞争日趋激烈的今天,持续加强基础研究、促进成果转化、构建开放生态,将是中国科技企业实现更大突破的关键所在。
这一创新成果也为数字经济时代的产业升级提供了新的技术支撑。