本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com

!logo
Gemma 3n是Google DeepMind推出的紧凑型多模态AI模型,专为低资源设备设计,具备高效运行能力。该模型支持文本、图像、音频和视频输入,提供开放权重,支持超过140种语言。通过优化参数使用和强化安全特性,Gemma 3n在Gemma系列基础上进一步扩展了轻量级、高性能的基础模型能力。
| 属性 | 详情 |
|---|---|
| 提供者 | Google DeepMind |
| 架构 | Gemma 3n |
| 数据截止日期 | 2024年6月 |
| 支持语言 | 140+ 种 |
| 工具调用能力 | ❌ 不支持 |
| 输入模态 | 文本 |
| 输出模态 | 文本 |
| 许可证 | Gemma使用条款 |
Gemma 3n模型适用于以下场景:
| 模型变体 | 参数规模 | 量化方式 | 上下文窗口 | 显存需求¹ | 大小 |
|---|---|---|---|---|---|
ai/gemma3n:4B-F16 | 6.9B | MOSTLY_F16 | 33K tokens | 9.32 GiB | 12.79 GB |
¹:显存需求基于模型特性估算
需安装支持模型运行的Docker环境(推荐使用Docker Desktop,需启用Model Runner功能)。
docker model pull ai/gemma3n
docker model run ai/gemma3n
详细使用说明参见Docker Model Runner文档
| 类别 | 基准测试 | 2B模型结果 | 4B模型结果 |
|---|---|---|---|
| 通用能力 | MMLU | 60.1 | 64.9 |
| DROP | 53.9 | 60.8 | |
| BIG-Bench Hard | 44.3 | 52.9 | |
| ARC-Challenge (25-shot) | 51.7 | 61.6 | |
| 多语言能力 | Global-MMLU | 55.1 | 60.3 |
| MGSM | 53.1 | 60.7 | |
| STEM与代码 | HumanEval | 66.5 | 75.0 |
| MBPP | 56.6 | 63.6 | |
| GPQA (Diamond) | 24.8 | 23.7 |
免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。
免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。
当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。
通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。
先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。
使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤
在 Linux 系统上配置轩辕镜像源,支持主流发行版
在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统
在 Docker Compose 中使用轩辕镜像加速,支持容器编排
在 k8s 中配置 containerd 使用轩辕镜像加速
在宝塔面板中配置轩辕镜像加速,提升服务器管理效率
在 Synology 群晖NAS系统中配置轩辕镜像加速
在飞牛fnOS系统中配置轩辕镜像加速
在极空间NAS中配置轩辕镜像加速
在爱快ikuai系统中配置轩辕镜像加速
在绿联NAS系统中配置轩辕镜像加速
在威联通NAS系统中配置轩辕镜像加速
在 Podman 中配置轩辕镜像加速,支持多系统
配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤
无需登录即可使用轩辕镜像加速服务,更加便捷高效
需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429