轩辕镜像
轩辕镜像专业版
个人中心搜索镜像
交易
充值流量我的订单
工具
工单支持镜像收录Run 助手IP 归属地密码生成Npm 源Pip 源
帮助
常见问题我要吐槽
其他
关于我们网站地图

官方QQ群: 13763429

轩辕镜像
镜像详情
dustynv/ollama
官方博客使用教程热门镜像工单支持
本站面向开发者与科研用户,提供开源镜像的搜索和下载加速服务。
所有镜像均来源于原始开源仓库,本站不存储、不修改、不传播任何镜像内容。
轩辕镜像 - 国内开发者首选的专业 Docker 镜像下载加速服务平台 - 官方QQ群:13763429 👈点击免费获得技术支持。
本站面向开发者与科研用户,提供开源镜像的搜索和下载加速服务。所有镜像均来源于原始开源仓库,本站不存储、不修改、不传播任何镜像内容。

本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com

ollama Docker 镜像下载 - 轩辕镜像

ollama 镜像详细信息和使用指南

ollama 镜像标签列表和版本信息

ollama 镜像拉取命令和加速下载

ollama 镜像使用说明和配置指南

Docker 镜像加速服务 - 轩辕镜像平台

国内开发者首选的 Docker 镜像加速平台

极速拉取 Docker 镜像服务

相关 Docker 镜像推荐

热门 Docker 镜像下载

ollama
dustynv/ollama

ollama 镜像详细信息

ollama 镜像标签列表

ollama 镜像使用说明

ollama 镜像拉取命令

Docker 镜像加速服务

轩辕镜像平台优势

镜像下载指南

相关 Docker 镜像推荐

GitHub仓库dusty-nv/jetson-containers中的Ollama LLM包,是为NVIDIA Jetson嵌入式平台设计的容器化解决方案,旨在简化大型语言模型(LLM)的部署与运行流程,支持多种主流LLM模型,充分利用Jetson设备的硬件加速能力,适用于边缘AI计算、智能终端开发等场景,为开发者提供便捷高效的本地化LLM部署工具。
8 收藏0 次下载activedustynv镜像
🚀轩辕镜像专业版更稳定💎一键安装 Docker 配置镜像源
中文简介版本下载
🚀轩辕镜像专业版更稳定💎一键安装 Docker 配置镜像源

ollama 镜像详细说明

ollama 使用指南

ollama 配置说明

ollama 官方文档

Ollama 使用指南

容器信息 镜像信息 运行容器 构建容器

  • 本文介绍的 Ollama 来自 GitHub 仓库,已启用 CUDA 支持(可执行文件路径 /bin/ollama)。
  • 感谢 @remy415 实现了 Ollama 在 Jetson 上的运行并提供 Dockerfile(PR #465)。

Ollama 服务端部署

首先,通过以下任一方式在后台启动本地 Ollama 服务端(守护进程):

# 模型缓存路径:jetson-containers/data
jetson-containers run --name ollama $(autotag ollama)

# 模型缓存路径:用户主目录
docker run --runtime nvidia -it --rm --network=host -v ~/ollama:/ollama -e OLLAMA_MODELS=/ollama dustynv/ollama:r36.2.0

服务端启动后,可在同一容器内或其他容器中运行 Ollama 客户端。ollama 容器的默认启动命令为 /start_ollama,该脚本会在后台启动服务端并释放终端控制权。服务端日志保存在挂载的 jetson-containers/data/logs 目录,方便在容器外查看。

通过环境变量 $OLLAMA_MODELS 可自定义模型下载路径(如上述示例)。默认情况下,模型会保存在 jetson-containers/data/models/ollama 目录,该路径由 jetson-containers run 自动挂载。

Ollama 客户端使用

使用 Ollama 命令行界面(CLI)加载目标模型(例如 mistral 7b):

场景 1:在服务端容器内运行

/bin/ollama run mistral

场景 2:在新容器中运行(另一个终端)

jetson-containers run $(autotag ollama) /bin/ollama run mistral

!Ollama CLI 演示

场景 3:在容器外运行客户端

可在容器外安装 arm64 架构的 Ollama 二进制文件(无需 CUDA,仅服务端依赖 CUDA):

# 下载最新 arm64 版本 Ollama 到 /bin 目录
sudo wget [***] ls-remote --refs --sort="version:refname" --tags [***] | cut -d/ -f3- | sed 's/-rc.*//g' | tail -n1)/ollama-linux-arm64 -O /bin/ollama
sudo chmod +x /bin/ollama

# 直接运行客户端(容器外)
/bin/ollama run mistral

Open WebUI 部署

如需通过浏览器访问 Ollama,可部署 Open WebUI 服务:

docker run -it --rm --network=host --add-host=host.docker.internal:host-gateway ghcr.io/open-webui/open-webui:main

部署后,在浏览器中访问 `[] WebUI 界面]([])

内存占用参考

模型量化方式内存占用(MB)
TheBloke/Llama-2-7B-GGUFllama-2-7b.Q4_K_S.gguf5,268
TheBloke/Llama-2-13B-GGUFllama-2-13b.Q4_K_S.gguf8,609
TheBloke/LLaMA-30b-GGUFllama-30b.Q4_K_S.gguf19,045
TheBloke/Llama-2-70B-GGUFllama-2-70b.Q4_K_S.gguf37,655
容器信息
ollama 容器说明
系统要求L4T ['>=34.1.0']
依赖项build-essential、cuda
被依赖项llama-index
Dockerfile 文件Dockerfile
镜像版本dustynv/ollama:r35.4.1 (2024-04-25, 5.4GB)
dustynv/ollama:r36.2.0 (2024-04-25, 3.9GB)
容器镜像
镜像仓库/标签日期架构大小
dustynv/ollama:r35.4.12024-04-25arm645.4GB
dustynv/ollama:r36.2.02024-04-25arm643.9GB

容器镜像兼容同系列其他 minor 版本的 JetPack/L4T:
    • L4T R32.7 镜像可运行于其他 L4T R32.7 版本(JetPack 4.6+)
    • L4T R35.x 镜像可运行于其他 L4T R35.x 版本(JetPack 5.1+)

运行容器

可通过 jetson-containers run 配合 autotag 启动容器,或手动编写 docker run 命令:

# 自动拉取/构建兼容镜像
jetson-containers run $(autotag ollama)

# 显式指定镜像版本
jetson-containers run dustynv/ollama:r35.4.1

# 使用 docker run 命令(需手动指定镜像及挂载)
sudo docker run --runtime nvidia -it --rm --network=host dustynv/ollama:r35.4.1

jetson-containers run 会将参数转发给 docker run,并添加默认配置(如 --runtime nvidia、挂载 /data 缓存目录、自动检测设备)。
autotag 会查找与当前 JetPack/L4T 版本兼容的镜像(本地镜像、远程仓库拉取或自动构建)。

如需挂载本地目录到容器,使用 -v 或 --volume 参数:

jetson-containers run -v /本地路径:/容器内路径 $(autotag ollama)

如需启动容器时直接运行命令(非交互式终端):

jetson-containers run $(autotag ollama) 目标命令 --参数

可传递任何 docker run 支持的参数,命令执行前会打印完整构建的命令。

构建容器

使用前文提到的 autotag 时,若本地无兼容镜像,会自动提示构建。如需手动构建,需先完成系统环境配置,然后执行:

jetson-containers build ollama

构建过程中会自动集成依赖项并进行测试。可添加 --help 参数查看构建选项:jetson-containers build ollama --help。

查看更多 ollama 相关镜像 →
ollama/ollama logo
ollama/ollama
by Ollama
The easiest way to get up and running with large language models.
144610M+ pulls
上次更新:9 天前
alpine/ollama logo
alpine/ollama
by alpine
Minimal CPU-only Ollama Docker Image
810K+ pulls
上次更新:6 天前

常见问题

轩辕镜像免费版与专业版有什么区别?

免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。

轩辕镜像免费版与专业版有分别支持哪些镜像?

免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。

流量耗尽错误提示

当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。

410 错误问题

通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。

manifest unknown 错误

先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。

镜像拉取成功后,如何去掉轩辕镜像域名前缀?

使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。

查看全部问题→

轩辕镜像下载加速使用手册

探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式

🔐

登录方式进行 Docker 镜像下载加速教程

通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤

🐧

Linux Docker 镜像下载加速教程

在 Linux 系统上配置轩辕镜像源,支持主流发行版

🖥️

Windows/Mac Docker 镜像下载加速教程

在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统

📦

Docker Compose 镜像下载加速教程

在 Docker Compose 中使用轩辕镜像加速,支持容器编排

📋

K8s containerd 镜像下载加速教程

在 k8s 中配置 containerd 使用轩辕镜像加速

🔧

宝塔面板 Docker 镜像下载加速教程

在宝塔面板中配置轩辕镜像加速,提升服务器管理效率

💾

群晖 NAS Docker 镜像下载加速教程

在 Synology 群晖NAS系统中配置轩辕镜像加速

🐂

飞牛fnOS Docker 镜像下载加速教程

在飞牛fnOS系统中配置轩辕镜像加速

📱

极空间 NAS Docker 镜像下载加速教程

在极空间NAS中配置轩辕镜像加速

⚡

爱快路由 ikuai Docker 镜像下载加速教程

在爱快ikuai系统中配置轩辕镜像加速

🔗

绿联 NAS Docker 镜像下载加速教程

在绿联NAS系统中配置轩辕镜像加速

🌐

威联通 NAS Docker 镜像下载加速教程

在威联通NAS系统中配置轩辕镜像加速

📦

Podman Docker 镜像下载加速教程

在 Podman 中配置轩辕镜像加速,支持多系统

📚

ghcr、Quay、nvcr、k8s、gcr 等仓库下载镜像加速教程

配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤

🚀

专属域名方式进行 Docker 镜像下载加速教程

无需登录即可使用轩辕镜像加速服务,更加便捷高效

需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429

商务:17300950906
|©2024-2025 源码跳动
商务合作电话:17300950906|Copyright © 2024-2025 杭州源码跳动科技有限公司. All rights reserved.