专属域名
文档搜索
轩辕助手
Run助手
邀请有礼
返回顶部
快速返回页面顶部
收起
收起工具栏
轩辕镜像 官方专业版
轩辕镜像 官方专业版轩辕镜像 官方专业版官方专业版
首页个人中心搜索镜像

交易
充值流量我的订单
工具
提交工单镜像收录一键安装
Npm 源Pip 源Homebrew 源
帮助
常见问题
其他
关于我们网站地图

官方QQ群: 1072982923

热门搜索:openclaw🔥nginx🔥redis🔥mysqlopenjdkcursorweb2apimemgraphzabbixetcdubuntucorednsjdk
Ollama 本地大模型运行镜像 logo

Ollama 本地大模型运行镜像

围绕 Ollama 生态的容器镜像集合,覆盖官方 Ollama 镜像以及针对不同硬件平台(NVIDIA GPU、Jetson、Intel GPU、Ampere CPU、摩尔线程 GPU 等)的优化版本,适合在本地或自托管环境中部署大语言模型服务。 https://ollama.com

Ollama 是一个专注本地大模型运行与管理的工具,通过简单的 CLI 与 HTTP API,让用户在个人电脑、服务器或私有云中便捷部署大语言模型(LLM)。Docker 生态中围绕 Ollama 已经出现了多种镜像形态:既有官方维护的通用镜像,也有针对 Jetson 边缘设备、Ampere CPU、Intel GPU、摩尔线程 GPU 等特定硬件优化的变体,以及预下载特定模型(如 Llama 3)的便利镜像。 相比直接在宿主机安装,使用 Ollama 相关 Docker 镜像有几个显著优势:一是环境可复现,依赖与版本封装在镜像内,便于迁移与回滚;二是更易做资源隔离与编排,可与现有的反向代理、向量数据库、RAG 服务、Web UI 等组件组合;三是同一主机上可以并行运行多种形态的 Ollama 服务,分别针对不同硬件或模型场景进行优化。 在本命名空间中,我们精选站内已经收录的 Ollama 相关镜像,并根据它们的官方/维护者文档整理了适用硬件、典型场景与使用方式,帮助你快速选择“官方通用版”“预下载模型版”以及针对特定硬件优化的版本,在不牺牲稳定性的前提下,最大化压榨本地算力。

特色镜像推荐

Ollama 官方镜像(ollama/ollama)

Ollama 官方维护的核心镜像,提供标准的 Ollama 服务与 CLI,支持通过 11434 端口以 HTTP API 形式对外提供大模型推理服务,适合在本地或服务器上快速搭建通用 LLM 服务。

本地大模型服务私有化 LLM 网关开发测试环境与 WebUI/应用集成

Ollama 本地大模型运行镜像集合

ollama logo
ollama
Ollama 本地大模型运行镜像
轻松在本地部署和运行大型语言模型的最简单方式。
1.5千 次收藏99923549 次下载
--更新

推荐技术栈

核心服务镜像

ollama/ollamalangchain4j/ollama-llama3

硬件优化与加速

dustynv/ollamaamperecomputingai/ollamauberchuckie/ollama-intel-gpumthreads/ollamaeisai/ollama

上层集成与工具

Open WebUILibre WebUIDify向量数据库与 RAG 组件

典型使用场景

本地与私有化 LLM 服务

使用官方通用镜像或预下载模型镜像,在个人电脑、开发服务器或内网环境中部署大语言模型服务,为内部应用提供低延迟、高隐私的推理接口。

ollama/ollamalangchain4j/ollama-llama3

多硬件平台统一 LLM 架构

在同一架构下同时支持 Jetson 边缘设备、Ampere CPU 云主机、Intel GPU 服务器、摩尔线程 GPU 服务器等多种硬件,通过不同 Ollama 镜像实现“同一 API,差异化加速”。

dustynv/ollamaamperecomputingai/ollamauberchuckie/ollama-intel-gpumthreads/ollama

开发者本地调试与模型评估

在本地利用 Ollama 镜像快速拉起环境,评估不同模型、不同硬件平台下的响应延迟、吞吐与显存占用,为后续生产部署做容量规划与选型参考。

ollama/ollamalangchain4j/ollama-llama3amperecomputingai/ollamauberchuckie/ollama-intel-gpu

与 Web UI / MLOps 平台集成

将 Ollama 暴露的 OpenAI 兼容 API 接入 Open WebUI、Libre WebUI、Dify 等上层平台,实现聊天界面、RAG 工作流与 Agent 系统的自托管大模型后端。

ollama/ollamaopen-webuilibre-webuilanggenius/dify-api

相关文章推荐

OLLAMA Docker 容器化部署指南

OLLAMA是一款旨在简化本地大型语言模型(LLM)部署与运行的工具,它提供了直观的命令行界面和容器化部署方案,让用户能够轻松地在本地环境中运行如Llama 3、Gemini、Mistral等主流大语言模型。

Docker,OLLAMA2025年12月3日

常见问题 (FAQ)

Q1:使用 Ollama Docker 镜像时,最基础的启动方式是什么?

以官方镜像 ollama/ollama 为例,最常见的启动方式是映射 11434 端口并挂载模型数据目录,例如:docker run -d -p 11434:11434 -v ollama:/root/.ollama --name ollama ollama/ollama。运行后即可通过 HTTP 接口访问,如 POST http://localhost:11434/api/chat 或 /api/generate;进入容器后也可以使用 ollama run llama3 等命令与模型交互。

Q2:如何为 Ollama 容器持久化模型和配置数据?

Ollama 默认会在容器内的 /root/.ollama 目录下存储模型与配置。为了避免容器删除后模型需要重新下载,建议将该目录挂载为本地卷或宿主机目录,例如:docker run -d -p 11434:11434 -v /data/ollama:/root/.ollama --name ollama ollama/ollama。对于社区维护的变体镜像,如 dimaskiddo/ollama-debian、eisai/ollama 等,它们的文档中也会明确模型或数据挂载目录,按照各自说明挂载即可实现持久化。

Q3:在不同硬件平台(NVIDIA GPU、Jetson、Intel GPU、Ampere CPU、摩尔线程 GPU)上运行 Ollama 有什么共性要求?

无论是 Jetson 专用镜像 noahaon/ollama、Ampere 优化镜像 amperecomputingai/ollama,还是 Intel GPU 镜像 uberchuckie/ollama-intel-gpu、摩尔线程 GPU 镜像 mthreads/ollama,它们的共同点都是:1)宿主机需要预先安装对应厂商的驱动和容器工具包(如 NVIDIA Container Toolkit、Ampere 相关依赖、Intel GPU 驱动、MUSA 环境等);2)启动容器时通常需要按照镜像文档提供的 docker run / docker compose 示例添加设备映射与环境变量;3)容器对外仍然通过 11434 端口或文档指定端口提供 Ollama API,因此上层调用与官方镜像保持一致。

Q4:Ollama Docker 镜像是否提供 OpenAI 兼容接口?如何与上层应用集成?

新版本的 Ollama 在 /v1/chat/completions 等路径上提供了与 OpenAI 兼容的接口,大多数围绕 Ollama 的镜像(包括官方镜像与硬件优化版)都会保留这一行为。你可以在应用或 Web UI 中将 "OpenAI" 类型的 Endpoint 指向 http://<主机>:11434,并将模型名称改为如 llama3、qwen 等在 Ollama 内实际存在的模型名称,这样无需改动业务代码即可切换到本地 Ollama 服务。对于仅暴露原始 /api/chat 接口的旧版本或定制镜像,则需要按照其 README 中的 API 说明进行对接。

Q5:在 Windows 上使用 Ollama Docker 镜像需要注意什么?

以 eisai/ollama 镜像为例,该镜像针对 Windows(包含 Windows Server 2022 等版本)做了兼容性适配,可在无需 Hyper-V 和 CUDA 工具包的前提下运行。但需要注意:1)应按照镜像文档说明使用 Windows 容器模式与合适的隔离方式(如 isolation: process);2)提前创建挂载目录用于存放模型;3)若需要 GPU 加速,需要参考文档中关于固定 GUID 设备传递或 GPU 直通的配置示例;4)与 Linux 环境不同,部分 Linux 专用工具链或 driver 容器在 Windows 上不可直接复用,需要严格按镜像 README 的步骤部署。

轩辕镜像
Ollama 本地大模型运行镜像
博客公告Docker 镜像公告与技术博客
热门镜像查看热门 Docker 镜像推荐
一键安装一键安装 Docker 并配置镜像源
镜像拉取问题咨询请 提交工单,官方技术交流群:1072982923。轩辕镜像所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
镜像拉取问题咨询请提交工单,官方技术交流群:。轩辕镜像所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
商务合作:点击复制邮箱
©2024-2026 源码跳动
商务合作:点击复制邮箱Copyright © 2024-2026 杭州源码跳动科技有限公司. All rights reserved.