
该镜像为在Jetson AGX Orin设备上运行Ollama的临时解决方案,主要用于解决官方镜像中缺失/data/logs目录的问题。支持CUDA 12.2、L4T 36.3.0、JetPack 6.0及nvidia-smi 540.3.0版本,确保在Jetson AGX Orin硬件上的兼容性和稳定性。
/data/logs目录的bug使用以下命令直接运行预构建的镜像:
bashdocker run -d \ --runtime nvidia \ -v [本地目录]/home/ollama:/root/.ollama \ # 挂载本地目录以持久化Ollama数据 -e OLLAMA_MODELS=/root/.ollama \ # 设置模型存储路径环境变量 -p 11434:11434 \ # 映射Ollama服务端口 --name ollama \ # 容器名称 vndr/ollama:r36.3.0 # 镜像名称及标签
说明:将
[本地目录]替换为实际的本地路径,用于存储Ollama数据和模型。
由于L4T 36.2.0版本存在兼容性问题,如需更新容器,需自行构建镜像:
克隆jetson-containers仓库:
bashgit clone https://github.com/dusty-nv/jetson-containers.git
按照仓库说明安装jetson-containers环境
进入Ollama包目录:
bashcd jetson-containers/packages/llm/ollama
修改配置文件:
config.py,设置所需的版本信息Dockerfile,修复缺失日志目录的问题(添加日志目录创建命令)构建镜像:
bashjetson-containers build ollama
测试构建的镜像:
bashdocker run -d \ --runtime nvidia \ -v /home/ollama:/root/.ollama \ -e OLLAMA_MODELS=/root/.ollama \ -p 11434:11434 \ --name ollama \ ollama:r36.3.0
| 参数 | 说明 |
|---|---|
--runtime nvidia | 使用NVIDIA运行时,启用GPU支持 |
-v [本地目录]:/root/.ollama | 挂载卷,持久化Ollama数据和模型 |
-e OLLAMA_MODELS=/root/.ollama | 设置模型存储路径环境变量 |
-p 11434:11434 | 端口映射,将容器内Ollama服务端口映射到主机 |
--name ollama | 指定容器名称,便于管理 |
以下是 vndr/ollama 相关的常用 Docker 镜像,适用于 不同场景 等不同场景:
您可以使用以下命令拉取该镜像。请将 <标签> 替换为具体的标签版本。如需查看所有可用标签版本,请访问 标签列表页面。





探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录认证访问私有仓库
无需登录使用专属域名
Kubernetes 集群配置 Containerd
K3s 轻量级 Kubernetes 镜像加速
VS Code Dev Containers 配置
Podman 容器引擎配置
HPC 科学计算容器配置
ghcr、Quay、nvcr 等镜像仓库
Harbor Proxy Repository 对接专属域名
Portainer Registries 加速拉取
Nexus3 Docker Proxy 内网缓存
需要其他帮助?请查看我们的 常见问题Docker 镜像访问常见问题解答 或 提交工单
docker search 限制
站内搜不到镜像
离线 save/load
插件要用 plugin install
WSL 拉取慢
安全与 digest
新手拉取配置
镜像合规机制
manifest unknown
no matching manifest(架构)
invalid tar header(解压)
TLS 证书失败
DNS 超时
域名连通性排查
410 Gone 排查
402 与流量用尽
401 认证失败
429 限流
D-Bus 凭证提示
413 与超大单层
来自真实用户的反馈,见证轩辕镜像的优质服务