本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com

这是一个开源的 Web 界面工具,专门用于和各类 AI 模型(尤其是大语言模型)交互。你可以通过它连接本地部署的模型(如用 Ollama 运行的 Llama、Mistral 等)或远程 API 服务(如 OpenAI API、Anthropic API),无需复杂配置就能快速搭建自己的 AI 对话平台,适合个人日常使用或小团队协作。
确保你的电脑或服务器已安装 Docker(Docker 官方安装指南),安装后启动 Docker 服务。
打开终端,运行以下命令拉取最新镜像(默认拉取 main 分支,即开发主版本):
docker pull ghcr.io/open-webui/open-webui:main
如果需要稳定版本,可指定标签(如 v0.2.3,具体版本见 Open WebUI 镜像仓库):
docker pull ghcr.io/open-webui/open-webui:v0.2.3
拉取完成后,用以下命令启动容器(以默认配置为例):
docker run -d \ --name open-webui \ -p 3000:8080 \ # 主机端口 3000 映射到容器内 8080(WebUI 默认端口) -v open-webui-data:/app/backend/data \ # 数据持久化(保存对话、配置等) --restart always \ # 容器意外停止后自动重启 ghcr.io/open-webui/open-webui:main
启动后,打开浏览器访问 [***] [***] 四、注意事项
-v open-webui-data:/app/backend/data 很重要!它会把对话记录、用户配置等保存在本地 Docker 卷中,即使容器删除,数据也不会丢失。如果没加这个参数,容器删除后数据会清空。-p 参数中的主机端口(如 -p 8088:8080,则通过 8088 端口访问)。main 分支是开发版,功能新但可能不稳定;生产环境建议用带版本号的镜像(如 v0.2.3)。--network=host 参数共享主机网络,或配置桥接网络)。通过以上步骤,你就能快速用容器镜像跑起 Open WebUI,开始和 AI 模型交互了。如果需要更复杂的部署(如用 Docker Compose 配数据库、HTTPS 等),可参考 Open WebUI 官方文档。


免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。
免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。
当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。
通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。
先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。
使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤
在 Linux 系统上配置轩辕镜像源,支持主流发行版
在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统
在 Docker Compose 中使用轩辕镜像加速,支持容器编排
在 k8s 中配置 containerd 使用轩辕镜像加速
在宝塔面板中配置轩辕镜像加速,提升服务器管理效率
在 Synology 群晖NAS系统中配置轩辕镜像加速
在飞牛fnOS系统中配置轩辕镜像加速
在极空间NAS中配置轩辕镜像加速
在爱快ikuai系统中配置轩辕镜像加速
在绿联NAS系统中配置轩辕镜像加速
在威联通NAS系统中配置轩辕镜像加速
在 Podman 中配置轩辕镜像加速,支持多系统
配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤
无需登录即可使用轩辕镜像加速服务,更加便捷高效
需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429