
ai/mistral!logo
一款快速强大的73亿参数模型,在推理、代码和数学任务中表现卓越。Mistral 7B是一个拥有73亿参数的强大语言模型,在包括推理、阅读理解和代码生成在内的广泛基准测试中优于Llama 2 13B。尽管体积更小,但它的性能可与更大规模的模型媲美,兼具高效性和多功能性。
Mistral 7B旨在在广泛的通用自然语言处理任务中提供高质量响应,同时保持资源使用效率。此外,该模型经过微调以遵循指令,能够自然地执行任务和回答问题(基础模型不具备此能力)。
| 属性 | 详情 |
|---|---|
| 提供商 | Mistral AI |
| 架构 | Llama |
| 数据截止日期 | 2023年12月ⁱ |
| 支持语言 | 英语(主要) |
| 工具调用 | ❌ |
| 输入模态 | 文本 |
| 输出模态 | 文本 |
| 许可证 | Apache 2.0 |
ⁱ: 估算值
| 模型变体 | 参数数量 | 量化方式 | 上下文窗口 | 显存¹ | 大小 |
|---|---|---|---|---|---|
ai/mistral:latestai/mistral:7B-Q4_K_M | 7B | IQ2_XXS/Q4_K_M | 33K tokens | 4.85 GiB | 4.07 GB |
ai/mistral:7B-Q4_0 | 7B | Q4_0 | 33K tokens | 4.61 GiB | 3.83 GB |
ai/mistral:7B-Q4_K_M | 7B | IQ2_XXS/Q4_K_M | 33K tokens | 4.85 GiB | 4.07 GB |
ai/mistral:7B-F16 | 7B | F16 | 33K tokens | 14.10 GiB | 13.50 GB |
¹: 显存基于模型特性估算
latest→7B-Q4_K_M
首先,拉取模型:
bashdocker model pull ai/mistral
然后运行模型:
bashdocker model run ai/mistral
有关Docker Model Runner的更多信息,请查阅文档。
[INST]和[/INST]标签包裹提示词。首个指令必须以句首标记开始,后续指令则无需;助手的响应将自动以句尾标记结束。| 能力 | 基准测试 | Mistral 7B |
|---|---|---|
| 自然语言理解 | MMLU | 60.1% |
| HellaSwag | 81.3% | |
| WinoGrande | 75.3% | |
| PIQA | 83.0% | |
| Arc-e | 80.0% | |
| Arc-c | 55.5% | |
| 知识检索 | NQ | 28.8% |
| TriviaQA | 69.9% | |
| 代码生成与调试 | HumanEval | 30.5% |
| MBPP | 47.5% | |
| 数学推理 | MATH | 13.1% |
| GSM8K | 52.1% |






manifest unknown 错误
TLS 证书验证失败
DNS 解析超时
410 错误:版本过低
402 错误:流量耗尽
身份认证失败错误
429 限流错误
凭证保存错误
来自真实用户的反馈,见证轩辕镜像的优质服务