本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com

容器信息镜像信息运行容器构建容器
/bin/ollama)。@remy415 实现了 Ollama 在 Jetson 上的运行并提供 Dockerfile(PR #465)。首先,通过以下任一方式在后台启动本地 Ollama 服务端(守护进程):
# 模型缓存路径:jetson-containers/data jetson-containers run --name ollama $(autotag ollama) # 模型缓存路径:用户主目录 docker run --runtime nvidia -it --rm --network=host -v ~/ollama:/ollama -e OLLAMA_MODELS=/ollama dustynv/ollama:r36.2.0
服务端启动后,可在同一容器内或其他容器中运行 Ollama 客户端。ollama 容器的默认启动命令为 /start_ollama,该脚本会在后台启动服务端并释放终端控制权。服务端日志保存在挂载的 jetson-containers/data/logs 目录,方便在容器外查看。
通过环境变量 $OLLAMA_MODELS 可自定义模型下载路径(如上述示例)。默认情况下,模型会保存在 jetson-containers/data/models/ollama 目录,该路径由 jetson-containers run 自动挂载。
使用 Ollama 命令行界面(CLI)加载目标模型(例如 mistral 7b):
/bin/ollama run mistral
jetson-containers run $(autotag ollama) /bin/ollama run mistral
!Ollama CLI 演示
可在容器外安装 arm64 架构的 Ollama 二进制文件(无需 CUDA,仅服务端依赖 CUDA):
# 下载最新 arm64 版本 Ollama 到 /bin 目录 sudo wget [***] ls-remote --refs --sort="version:refname" --tags [***] | cut -d/ -f3- | sed 's/-rc.*//g' | tail -n1)/ollama-linux-arm64 -O /bin/ollama sudo chmod +x /bin/ollama # 直接运行客户端(容器外) /bin/ollama run mistral
如需通过浏览器访问 Ollama,可部署 Open WebUI 服务:
docker run -it --rm --network=host --add-host=host.docker.internal:host-gateway ghcr.io/open-webui/open-webui:main
部署后,在浏览器中访问 `[] WebUI 界面]([])
| 模型 | 量化方式 | 内存占用(MB) |
|---|---|---|
TheBloke/Llama-2-7B-GGUF | llama-2-7b.Q4_K_S.gguf | 5,268 |
TheBloke/Llama-2-13B-GGUF | llama-2-13b.Q4_K_S.gguf | 8,609 |
TheBloke/LLaMA-30b-GGUF | llama-30b.Q4_K_S.gguf | 19,045 |
TheBloke/Llama-2-70B-GGUF | llama-2-70b.Q4_K_S.gguf | 37,655 |
ollama 容器 | 说明 |
|---|---|
| 系统要求 | L4T ['>=34.1.0'] |
| 依赖项 | build-essential、cuda |
| 被依赖项 | llama-index |
| Dockerfile 文件 | Dockerfile |
| 镜像版本 | dustynv/ollama:r35.4.1 (2024-04-25, 5.4GB)dustynv/ollama:r36.2.0 (2024-04-25, 3.9GB) |
| 镜像仓库/标签 | 日期 | 架构 | 大小 |
|---|---|---|---|
dustynv/ollama:r35.4.1 | 2024-04-25 | arm64 | 5.4GB |
dustynv/ollama:r36.2.0 | 2024-04-25 | arm64 | 3.9GB |
容器镜像兼容同系列其他 minor 版本的 JetPack/L4T:
• L4T R32.7 镜像可运行于其他 L4T R32.7 版本(JetPack 4.6+)
• L4T R35.x 镜像可运行于其他 L4T R35.x 版本(JetPack 5.1+)
可通过 jetson-containers run 配合 autotag 启动容器,或手动编写 docker run 命令:
# 自动拉取/构建兼容镜像 jetson-containers run $(autotag ollama) # 显式指定镜像版本 jetson-containers run dustynv/ollama:r35.4.1 # 使用 docker run 命令(需手动指定镜像及挂载) sudo docker run --runtime nvidia -it --rm --network=host dustynv/ollama:r35.4.1
jetson-containers run会将参数转发给docker run,并添加默认配置(如--runtime nvidia、挂载/data缓存目录、自动检测设备)。
autotag会查找与当前 JetPack/L4T 版本兼容的镜像(本地镜像、远程仓库拉取或自动构建)。
如需挂载本地目录到容器,使用 -v 或 --volume 参数:
jetson-containers run -v /本地路径:/容器内路径 $(autotag ollama)
如需启动容器时直接运行命令(非交互式终端):
jetson-containers run $(autotag ollama) 目标命令 --参数
可传递任何 docker run 支持的参数,命令执行前会打印完整构建的命令。
使用前文提到的 autotag 时,若本地无兼容镜像,会自动提示构建。如需手动构建,需先完成系统环境配置,然后执行:
jetson-containers build ollama
构建过程中会自动集成依赖项并进行测试。可添加 --help 参数查看构建选项:jetson-containers build ollama --help。
免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。
免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。
当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。
通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。
先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。
使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤
在 Linux 系统上配置轩辕镜像源,支持主流发行版
在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统
在 Docker Compose 中使用轩辕镜像加速,支持容器编排
在 k8s 中配置 containerd 使用轩辕镜像加速
在宝塔面板中配置轩辕镜像加速,提升服务器管理效率
在 Synology 群晖NAS系统中配置轩辕镜像加速
在飞牛fnOS系统中配置轩辕镜像加速
在极空间NAS中配置轩辕镜像加速
在爱快ikuai系统中配置轩辕镜像加速
在绿联NAS系统中配置轩辕镜像加速
在威联通NAS系统中配置轩辕镜像加速
在 Podman 中配置轩辕镜像加速,支持多系统
配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤
无需登录即可使用轩辕镜像加速服务,更加便捷高效
需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429