
ai/qwen3-vllm!logo
Qwen3是Qwen大语言模型家族的最新一代,旨在在编码、数学、推理和语言任务中提供顶级性能。它包含密集型和混合专家(MoE)模型,支持从轻型应用到大规模研究的灵活部署。
Qwen3引入双推理模式——"思考"模式用于复杂任务,"非思考"模式用于快速响应,为用户提供动态性能控制。它在推理、指令遵循和代码生成方面优于前代模型,同时在创意写作和对话方面表现出色。
凭借强大的代理和工具使用能力以及对100多种语言的支持,Qwen3针对多语言、多领域应用进行了优化。
| 属性 | 值 |
|---|---|
| 提供商 | 阿里云 |
| 架构 | qwen3 |
| 数据截止日期 | 2025年4月(预计) |
| 支持语言 | 119种不同语系语言(印欧语系、汉藏语系、闪含语系、南岛语系、达罗毗荼语系、突厥语系、侗台语系、乌拉尔语系、南亚语系),包括日语、巴斯克语、海地语等 |
| 工具调用 | ✅ |
| 输入模态 | 文本 |
| 输出模态 | 文本 |
| 许可证 | Apache 2.0 |
Qwen3-8B适用于广泛的高级自然语言处理任务:
/think和/no_think提示词进行软切换(当enable_thinking=True时)。这允许在多轮对话中动态控制模型的推理深度。注意:Qwen3模型采用新命名约定:后训练模型不再包含
-Instruct后缀(例如,Qwen3-32B替代Qwen2.5-32B-Instruct),基础模型现在以-Base结尾。
首先拉取模型:
bashdocker model pull ai/qwen3-vllm
然后运行模型:
bashdocker model run ai/qwen3-vllm
更多信息,请查看Docker Model Runner文档。
| 类别 | 基准测试 | Qwen3 |
|---|---|---|
| 通用任务 | MMLU | 87.81 |
| MMLU-Redux | 87.40 | |
| MMLU-Pro | 68.18 | |
| SuperGPQA | 44.06 | |
| BBH | 88.87 | |
| 数学与科学任务 | GPQA | 47.47 |
| GSM8K | 94.39 | |
| MATH | 71.84 | |
| 多语言任务 | MGSM | 83.53 |
| MMMLU | 86.70 | |
| INCLUDE | 73.46 | |
| 代码任务 | EvalPlus | 77.60 |
| MultiPL-E | 65.94 | |
| MBPP | 81.40 | |
| CRUX-O | 79.00 |





manifest unknown 错误
TLS 证书验证失败
DNS 解析超时
410 错误:版本过低
402 错误:流量耗尽
身份认证失败错误
429 限流错误
凭证保存错误
来自真实用户的反馈,见证轩辕镜像的优质服务