本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com

!logo
Meta Llama 3.3 是由Meta设计的700亿参数多语言语言模型,专为聊天和内容生成等文本任务而优化。其指令调优版本针对多语言对话进行了优化,在常见基准测试中性能优于许多开源和商业模型。作为最新的Llama 3版本,该模型在推理能力和生成质量方面均有显著提升。
| 属性 | 详情 |
|---|---|
| 提供者 | Meta |
| 架构 | llama |
| 数据截止日期 | 2023年12月 |
| 支持语言 | 英语、德语、法语、意大利语、葡萄牙语、印地语、西班牙语和泰语 |
| 工具调用 | ✅ |
| 输入模态 | 文本 |
| 输出模态 | 文本和代码 |
| 许可证 | Llama 3.3 社区许可证 |
| 模型变体 | 参数 | 量化方式 | 上下文窗口 | 显存¹ | 大小 |
|---|---|---|---|---|---|
ai/llama3.3:latestai/llama3.3:70B-Q4_K_M | 70B | IQ2_XXS/Q4_K_M | 131K tokens | 41.11 GiB | 39.59 GB |
ai/llama3.3:70B-Q4_0 | 70B | Q4_0 | 131K tokens | 38.73 GiB | 37.22 GB |
ai/llama3.3:70B-Q4_K_M | 70B | IQ2_XXS/Q4_K_M | 131K tokens | 41.11 GiB | 39.59 GB |
¹: 显存基于模型特性估算。
latest标签对应70B-Q4_K_M变体
docker model pull ai/llama3.3
docker model run ai/llama3.3
有关 Docker Model Runner 的更多信息,请参阅 官方文档。
| 类别 | 基准测试 | Llama-3.3 70B 指令版 |
|---|---|---|
| 通用能力 | MMLU (CoT) | 86.0 |
| MMLU Pro (CoT) | 68.9 | |
| 可控性 | IFEval | 92.1 |
| 推理能力 | GPQA Diamond (CoT) | 50.5 |
| 代码能力 | HumanEval | 88.4 |
| MBPP EvalPlus (base) | 87.6 | |
| 数学能力 | MATH (CoT) | 77.0 |
| 工具使用 | BFCL v2 | 77.3 |
| 多语言能力 | MGSM | 91.1 |
免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。
免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。
当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。
通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。
先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。
使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤
在 Linux 系统上配置轩辕镜像源,支持主流发行版
在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统
在 Docker Compose 中使用轩辕镜像加速,支持容器编排
在 k8s 中配置 containerd 使用轩辕镜像加速
在宝塔面板中配置轩辕镜像加速,提升服务器管理效率
在 Synology 群晖NAS系统中配置轩辕镜像加速
在飞牛fnOS系统中配置轩辕镜像加速
在极空间NAS中配置轩辕镜像加速
在爱快ikuai系统中配置轩辕镜像加速
在绿联NAS系统中配置轩辕镜像加速
在威联通NAS系统中配置轩辕镜像加速
在 Podman 中配置轩辕镜像加速,支持多系统
配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤
无需登录即可使用轩辕镜像加速服务,更加便捷高效
需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429