
ai/qwen2.5!logo
Qwen2.5-7B-Instruct 是阿里云开发的指令微调大语言模型,属于 Qwen2.5 系列。该系列模型参数规模覆盖 0.5B 至 72B,而本模型在知识储备、代码生成、数学推理能力上有显著提升,同时增强了指令跟随和长文本生成表现。它支持最长 131,072 tokens 的上下文窗口,输出长度可达 8,192 tokens,并提供 29 种以上语言的多语言支持,包括中文、英文、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。
Qwen2.5-7B-Instruct 可辅助完成多种自然语言处理任务,具体包括:
| 属性 | 详情 |
|---|---|
| 开发方 | 阿里云 |
| 架构 | qwen2 |
| 数据截止时间 | 2024年11月(预估) |
| 支持语言 | 中文、英文、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等(共29种语言) |
| 工具调用 | ✅ |
| 输入模态 | 文本 |
| 输出模态 | 文本 |
| 许可证 | Apache 2.0 |
| 模型变体 | 参数规模 | 量化方式 | 上下文窗口 | 显存¹ | 大小 |
|---|---|---|---|---|---|
ai/qwen2.5:latestai/qwen2.5:7B-Q4_K_M | 7B | IQ2_XXS/Q4_K_M | 33K tokens | 4.83 GiB | 4.36 GB |
ai/qwen2.5:0.5B-F16 | 0.5B | F16 | 33K tokens | 1.38 GiB | 942.43 MB |
ai/qwen2.5:1.5B-F16 | 1.5B | F16 | 33K tokens | 3.39 GiB | 2.88 GB |
ai/qwen2.5:3B-Q4_K_M | 3B | IQ2_XXS/Q4_K_M | 33K tokens | 2.37 GiB | 1.79 GB |
ai/qwen2.5:3B-F16 | 3B | F16 | 33K tokens | 6.33 GiB | 5.75 GB |
ai/qwen2.5:7B-Q4_0 | 7B | Q4_0 | 33K tokens | 4.60 GiB | 4.12 GB |
ai/qwen2.5:7B-Q4_K_M | 7B | IQ2_XXS/Q4_K_M | 33K tokens | 4.83 GiB | 4.36 GB |
ai/qwen2.5:7B-F16 | 7B | F16 | 33K tokens | 13.93 GiB | 14.19 GB |
¹:显存基于模型特性估算。
latest标签默认对应7B-Q4_K_M版本。
bashdocker model pull ai/qwen2.5
bashdocker model run ai/qwen2.5
更多关于 Docker Model Runner 的使用细节,可参考 官方文档。
| 评估维度 | 测试基准 | Qwen2.5-7B-Instruct 得分 |
|---|---|---|
| 知识与问答 | MMLU-Pro | 56.3 |
| MMLU-redux | 75.4 | |
| GPQA | 36.4 | |
| 数学与推理 | MATH | 75.5 |
| GSM8K | 91.6 | |
| 代码能力 | HumanEval | 84.8 |
| MBPP | 79.2 | |
| MultiPL-E | 70.4 | |
| LiveCodeBench 2305-2409 | 28.7 | |
| LiveBench 0831 | 35.9 | |
| 指令跟随 | IFeval strict-prompt | 71.2 |
| Arena-Hard | 52.0 | |
| 对齐与偏好 | AlignBench v1.1 | 7.33 |
| MTbench | 8.75 |






manifest unknown 错误
TLS 证书验证失败
DNS 解析超时
410 错误:版本过低
402 错误:流量耗尽
身份认证失败错误
429 限流错误
凭证保存错误
来自真实用户的反馈,见证轩辕镜像的优质服务