今天凌晨,备受全球AI圈关注的Qwen3系列模型正式登场啦!这个模型可是从昨晚就开始预热,大家都对它期待满满。

Qwen3模型依旧采用宽松的Apache2.0协议开源,这意味着全球的开发者、研究机构和企业都能免费在HuggingFace、魔搭社区等平台下载模型,还能用于商业用途。要是不想下载,也可以通过阿里云百炼调用Qwen3的API服务。下面给大家说说具体的下载地址:
·
HuggingFace地址:https://huggingface.co/collections/Qwen/qwen367dd247413f0e2e4f653967f
·
Modelscope地址:https://modelscope.cn/collections/Qwen39743180bdc6b48
·
GitHub地址:https://github.com/QwenLM/Qwen3
·
博客地址:https://qwenlm.github.io/blog/qwen3/
·
试用地址:https://chat.qwen.ai/
具体来讲,Qwen3系列模型有两款MoE模型和六款密集模型,而且每一款还有更多细分版本,像基础版和量化版。
通义千问Qwen3模型家族

这些模型全部支持Apache2.0协议开源,还能“快思慢想”按需切换,支持119种语言,有Agent能力及MCP协议。
·
MoE模型:有Qwen3 -
235B - A22B和Qwen3 - 30B - A3B。这里的235B和30B分别是总参数量,22B和3B分别是激活参数量。
·
密集模型:包括Qwen3 - 32B、Qwen3 - 14B、Qwen3 - 8B、Qwen3 - 4B、Qwen3 - 1.7B和Qwen3 - 0.6B。
下面这个表格详细展示了这些模型的参数:
模型名称
|
层数
|
头数(Q/KV)
|
是否绑定嵌入
|
上下文长度
|
Qwen3
- 0.6B
|
28
|
16/8
|
是
|
32K
|
Qwen3 - 1.7B
|
28
|
16/8
|
是
|
32K
|
Qwen3 - 4B
|
36
|
32/8
|
是
|
32K
|
Qwen3 - 8B
|
36
|
32/8
|
否
|
128K
|
Qwen3 - 14B
|
40
|
40/8
|
否
|
128K
|
Qwen3 - 32B
|
64
|
64/8
|
否
|
128K
|
模型名称
|
层数
|
头数(Q/KV)
|
专家数量(总数/激活数)
|
上下文长度
|
Qwen3
- 30B - A3B
|
48
|
32/4
|
128/8
|
128K
|
Qwen3 - 235B - A22B
|
94
|
64/4
|
128/8
|
128K
|

现在,Hugging
Face已经上线了22个不同的Qwen3系列模型。而且,Qwen3系列中较大的三款模型也已经在Qwen Chat网页版和手机App上线了。
在性能方面,旗舰模型Qwen3 - 235B - A22B在代码、数学、通用能力等基准测试中,和DeepSeek - R1、o1、o3 - mini、Grok - 3和Gemini - 2.5 - Pro等顶级模型表现得差不多。
测试项目
|
Qwen3 - 235B - A22B
|
Qwen3 - 32B
|
OpenAlol 2024 - 12 - 17
|
Deepseek - R1
|
Grok 3 Beta
|
Gemini2.5 - Pro
|
OpenAl - o3 - mini
|
ArenaHard
|
95.6
|
93.8
|
92.1
|
93.2
|
|
96.4
|
89.0
|
AIME24
|
85.7
|
81.4
|
74.3
|
79.8
|
83.9
|
92.0
|
79.6
|
AIME25
|
81.5
|
72.9
|
79.2
|
70.0
|
77.3
|
86.7
|
74.8
|
Live CodeBench
|
70.7
|
65.7
|
63.9
|
64.3
|
70.6
|
70.4
|
66.3
|
CodeForces
|
2056
|
1977
|
1891
|
2029
|
|
2001
|
2036
|
Aider a2
|
61.8
|
50.2
|
61.7
|
56.9
|
53.3
|
72.9
|
53.8
|
LiveBench 02411:25
|
77.1
|
74.9
|
75.7
|
71.6
|
|
82.4
|
70.0
|
BFCL
|
70.8
|
70.3
|
67.8
|
56.9
|
|
62.9
|
64.6
|
MultilF
|
71.9
|
73.0
|
48.8
|
67.7
|
|
77.8
|
48.4
|
此外,小型MoE模型Qwen3 -
30B - A3B的激活参数数量只有QwQ - 32B的10%,但表现却更好。就连像Qwen3 - 4B这样的小模型,性能也能和Qwen2.5 - 72B - Instruct相媲美。
测试项目
|
Qwen3 - 30B - A3B
|
QwQ - 32B
|
Qwen3 - 4B
|
Qwen2.5 - 72B - Instruct
|
Gemmo3 - 27B - IT
|
DeepSeek - V3
|
GPT - 4o 202411:20
|
ArenaHard
|
91.0
|
89.5
|
76.6
|
81.2
|
86.8
|
85.5
|
85.3
|
AIME24
|
80.4
|
79.5
|
73.8
|
18.9
|
32.6
|
39.2
|
11.1
|
AIME25
|
70.9
|
69.5
|
65.6
|
15.0
|
24.0
|
28.8
|
7.6
|
LiveCodeBench
|
62.6
|
62.7
|
54.2
|
30.7
|
26.9
|
33.1
|
32.7
|
CodeForces
|
1974
|
1982
|
1671
|
859
|
1063
|
1134
|
864
|
GPQA
|
65.8
|
65.6
|
55.9
|
49.0
|
42.4
|
59.1
|
46.0
|
LiveBench 2024 - 11 - 25
|
74.3
|
72.0
|
63.6
|
51.4
|
49.2
|
60.5
|
52.2
|
BFCL
|
69.1
|
66.4
|
65.9
|
63.4
|
59.1
|
57.6
|
72.5
|
MultilF
|
72.2
|
68.3
|
66.3
|
65.3
|
69.8
|
55.6
|
65.6
|
Qwen3不仅性能大幅提升,部署成本还大幅下降,只需要4张H20就能部署满血版,显存占用只有性能相近模型的三分之一。
开发团队在博客里给出了一些推荐设置:“对于部署,推荐使用SGLang和vLLM等框架;要是在本地使用,像Ollama、LMStudio、MLX、llama.cpp和KTransformers这些工具也很不错。用这些选项,用户能轻松把Qwen3集成到自己的工作流程里,不管是做研究、开发还是用于生产环境都没问题。”
该团队表示:“Qwen3的发布和开源会极大地推动大型基础模型的研究与开发。我们的目标是让全球的研究人员、开发者和组织都能用上这些前沿模型,帮助他们构建创新解决方案。”
Qwen团队技术负责人林俊旸分享了Qwen3模型开发的细节,他说团队花了不少时间解决一些看似普通但很重要的问题,比如怎么通过稳定的训练来扩展强化学习、怎么平衡不同领域的数据、怎么在不牺牲性能的前提下增强对更多语言的支持等。他希望大家能喜欢Qwen3模型,说不定还能发现一些有趣的东西。他还说团队接下来要训练Agent来扩展长程推理,同时会更关注现实世界的任务。

当然,未来开发团队也会放出Qwen3模型的技术报告或训练配方。
网友反馈与上手实测
和前一代Qwen系列模型一样,Qwen3的发布吸引了全球AI和开源社区的关注,网上全是好评。

有网友说:“我刚刚尝试了Qwen3。当你需要时,它反应很快。它能从容应对棘手的问题。它不会随便给出答案,而是会思考并给出正确答案。对于编码,它运行良好。对于数学,它也能轻松应对。语言方面,它听起来很真实,不像其他型号那样奇怪。更让我惊喜的是,它甚至支持多达119种语言。已经很久没有出现过如此优秀的开源模型了。”

机器之心也做了一些简单的测试。首先是一个简单的推理测试题,Qwen3 - 235B - A22B轻松就答对了。

接着,他们尝试了一个更复杂的编程任务:编写一个像素风格的贪吃蛇游戏,而且游戏里还有一个平头哥在追赶蛇,一旦被咬中,蛇的长度就会减少一半。当蛇撞墙、咬到自己或者长度低于2时,游戏就结束。Qwen3 - 235B - A22B大概用了3分钟就完成了这个任务。简单试玩了一下,发现基本能玩,但也有一些小问题,比如平头哥的速度太快了。不过考虑到这是在简单提示词下得到的结果,已经很不错了。相信通过更精细的提示工程和迭代优化,能得到更好的结果。

他们还通过Ollama简单尝试了Qwen3系列中最小的模型Qwen
0.6B。