Qwen3.5是阿里通义千问面向原生多模态智能体的新一代系列,以稀疏MoE为主、稠密为辅,支持201种语言,原生上下文256K。
系列总览
| 组别 | 架构 | 核心型号 | 典型场景 |
|---|
| 旗舰MoE | 稀疏MoE | 397B-A17B | 复杂推理、智能体 |
| 中型MoE | 稀疏MoE | 122B-A10B、35B-A3B | 企业私有化、高吞吐 |
| 稠密通用 | 稠密Transformer | 72B、27B、14B、7B、2B | 稳定部署、微调 |
| 专项衍生 | 稠密/MoE | Coder、VL、Omni | 代码、视觉、全模态 |
核心型号
旗舰:Qwen3.5-397B-A17B
- 总参397B,激活17B(激活率≈4.3%)
- 支持文本/图像/视频(2小时视频输入)
- 部署显存较Qwen3-Max降60%
中型:Qwen3.5-35B-A3B
- 总参35B,激活3B
- 性能超越Qwen3-235B-A22B
- 以接近3B成本获得20B+能力
稠密:Qwen3.5-72B/27B/14B/7B/2B
- 72B:企业级稠密旗舰
- 27B:Agent场景表现出色,消费级显卡可部署
- 2B:边缘推理、低算力场景
核心技术
| 技术 | 说明 |
|---|
| 原生多模态 | 早期融合训练,无需外挂编码器 |
| 混合注意力 | Gated DeltaNet,长文本显存降30% |
| 高效推理 | MoE稀疏激活+多token预测 |
| 全球化 | 支持201种语言,词表25万 |
Comments