阿里通义实验室发布 Qwen3.5 小尺寸模型家族:轻量高效,加速端侧与垂直场景落地

 

阿里通义实验室正式推出新一代大语言模型 Qwen3.5 系列的小尺寸版本,涵盖 0.8B、2B、4B 与 9B 四种参数规模。该系列以“性能优化优先”为核心目标,在保证能力上限的同时大幅降低算力门槛,力求推动 AI 从云端走向端侧设备,并在各类垂直行业场景中实现更低成本、更高效率的应用落地。

统一基座打造,聚焦轻量与高适配

本次发布的所有模型均基于 Qwen3.5 统一基座研发。不同于单纯追求参数规模的超大模型,这一“小尺寸”家族更强调轻量化部署与环境适配能力,在性能与资源消耗之间取得更优平衡。


  • 0.8B 与 2B 模型:面向端侧设备深度优化,可运行于智能手机、嵌入式硬件等算力受限环境,实现毫秒级响应与流畅交互体验,适合实时问答、语音助手、轻量文本生成等应用。



  • 4B 模型:在保持轻量体量的同时强化多模态能力,被视为构建轻量级 Agent(智能体)的理想选择,可支持更复杂的任务编排与场景交互。



  • 9B 模型:虽为精简体量,但在实测中展现出接近更大规模模型的推理水平,能够胜任复杂逻辑分析与深度语义理解等任务,为中高阶应用提供高性价比方案。


开源可商用,降低创新门槛

为进一步激活开发者生态,通义实验室宣布该系列模型遵循 Apache 2.0 协议,全面开源并支持商业使用。开发者不仅可以进行 LoRA 微调,也可开展全量微调训练,且仅需常见的消费级显卡即可完成任务适配。

这一开放策略显著降低了个人开发者与中小企业的试错成本,使其能够更快速地验证创意、打造垂直领域解决方案,并将 AI 能力嵌入实际业务流程之中。

总体来看,Qwen3.5 小尺寸模型家族的推出,标志着大模型能力正从“规模竞争”走向“效率与落地”的新阶段。在端侧智能与行业应用加速融合的背景下,这一系列模型有望成为推动 AI 普及化的重要力量。