
ai/mistral-nemo!logo
Mistral-Nemo-Instruct-2407是由Mistral AI和NVIDIA联合开发的指令微调大型语言模型,针对多语言任务和指令遵循能力进行了优化。与Mistral 7B相比,该模型在精确指令遵循、推理能力、多轮对话处理及代码生成方面均有显著提升。
Mistral-Nemo-Instruct-2407专为指令遵循任务和多语言应用设计,包括:
| 属性 | 详情 |
|---|---|
| 提供者 | Mistral AI & NVIDIA |
| 架构 | llama |
| 数据截止日期 | 2024年7月 |
| 支持语言 | 英语、法语、德语、西班牙语、意大利语、葡萄牙语、俄语、中文、日语 |
| 工具调用 | ✅ |
| 输入模态 | 文本 |
| 输出模态 | 文本 |
| 许可证 | Apache 2.0 |
| 模型变体 | 参数 | 量化方式 | 上下文窗口 | 显存¹ | 大小 |
|---|---|---|---|---|---|
ai/mistral-nemo:latestai/mistral-nemo:12B-Q4_K_M | 12B | IQ2_XXS/Q4_K_M | 131K tokens | 7.78 GiB | 6.96 GB |
ai/mistral-nemo:12B-Q4_K_M | 12B | IQ2_XXS/Q4_K_M | 131K tokens | 7.78 GiB | 6.96 GB |
¹: 显存基于模型特性估算。
latest→12B-Q4_K_M
首先,拉取模型:
bashdocker model pull ai/mistral-nemo
然后运行模型:
bashdocker model run ai/mistral-nemo
有关Docker Model Runner的更多信息,请查阅文档。
| 基准测试 | 分数 |
|---|---|
| HellaSwag(0-shot) | 83.5% |
| Winogrande(0-shot) | 76.8% |
| OpenBookQA(0-shot) | 60.6% |
| CommonSenseQA(0-shot) | 70.4% |
| TruthfulQA(0-shot) | 50.3% |
| MMLU(5-shot) | 68.0% |
| TriviaQA(5-shot) | 73.8% |
| NaturalQuestions(5-shot) | 31.2% |





manifest unknown 错误
TLS 证书验证失败
DNS 解析超时
410 错误:版本过低
402 错误:流量耗尽
身份认证失败错误
429 限流错误
凭证保存错误
来自真实用户的反馈,见证轩辕镜像的优质服务