专属域名
文档搜索
轩辕助手
Run助手
邀请有礼
返回顶部
快速返回页面顶部
收起
收起工具栏
轩辕镜像 官方专业版
轩辕镜像 官方专业版轩辕镜像 官方专业版官方专业版
首页个人中心搜索镜像

交易
充值流量我的订单
工具
提交工单镜像收录一键安装
Npm 源Pip 源Homebrew 源
帮助
常见问题
其他
关于我们网站地图

官方QQ群: 1072982923

返回博客首页
ComfyUI Docker 镜像部署指南
2025/12/31人工智能,ComfyUI,PyTorch,Stable Diffusion轩辕镜像团队约 10 分钟阅读

ComfyUI Docker 镜像部署指南

ComfyUI 是一款基于节点工作流的 Stable Diffusion 图形界面,支持通过可视化方式组合复杂的图像生成流程。ComfyUI-BOOT 基于官方 ComfyUI 构建,内置:Python 运行环境,PyTorch(按 CUDA / 架构区分),ComfyUI 本体,启动与下载脚本,用于简化 ComfyUI 的部署与启动流程。

comfyui人工智能部署教程Stable Diffusion

本文使用的 Docker 镜像

yanwk/comfyui-boot

一、项目简介

ComfyUI 是一款基于节点工作流的 Stable Diffusion 图形界面,支持通过可视化方式组合复杂的图像生成流程。

ComfyUI-BOOT 基于官方 ComfyUI 构建,内置:

  • Python 运行环境
  • PyTorch(按 CUDA / 架构区分)
  • ComfyUI 本体
  • 启动与下载脚本

用于简化 ComfyUI 的部署与启动流程。


二、运行前准备

1. 系统与硬件要求

  • 操作系统:Linux(推荐 Ubuntu 20.04+)
  • Docker:已安装并可正常运行(建议使用 Docker 20.10+ 以支持 --gpus 参数)
  • GPU(可选):NVIDIA GPU(是否可用取决于 PyTorch 对该架构的支持)

注意:

  • CUDA 版本的可用性 由 PyTorch 官方预编译包决定,而非 NVIDIA 驱动或 CUDA Toolkit 本身。
  • 即使系统未安装 CUDA Toolkit,也不影响使用对应 CUDA 标签的镜像。

2. 安装 Docker 环境

使用以下一键脚本快速部署 Docker 及相关组件(包含 Docker Engine、Docker Compose 等):

bash
bash <(wget -qO- https://xuanyuan.cloud/docker.sh)

脚本执行完成后,通过以下命令验证 Docker 是否安装成功:

bash
docker --version
docker compose version

若输出 Docker 版本信息(如 Docker version 26.1.4, build 5650f9b),则说明安装成功。


3. 配置 Docker 服务

启动 Docker 服务并设置开机自启:

bash
sudo systemctl enable --now docker

对于 NVIDIA GPU 用户,需安装 NVIDIA Container Toolkit 以支持 GPU 资源调度:

bash
distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add -
curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list
sudo apt-get update && sudo apt-get install -y nvidia-container-toolkit
sudo systemctl restart docker

如需使用 NVIDIA GPU,请确保:

bash
nvidia-smi

可正常输出显卡信息。


三、镜像准备

拉取 ComfyUI-BOOT 镜像

使用以下命令通过轩辕镜像访问支持域名拉取推荐版本的 ComfyUI-BOOT 镜像:

bash
docker pull xxx.xuanyuan.run/yanwk/comfyui-boot:cu128-slim

说明:cu128-slim 为推荐标签,包含 CUDA 12.8 支持,适合新手使用。如需其他版本,可访问 ComfyUI-BOOT 镜像标签列表 查看所有可用标签。

拉取完成后,通过以下命令验证镜像是否成功下载:

bash
docker images | grep comfyui-boot

若输出类似以下内容,则说明镜像拉取成功:

xxx.xuanyuan.run/yanwk/comfyui-boot   cu128-slim   abc12345   2 weeks ago   15.2GB

四、快速开始(NVIDIA GPU)

1. 创建本地目录

该目录结构 与官方 README 保持一致:

bash
mkdir -p \
  storage \
  storage-models/models \
  storage-models/hf-hub \
  storage-models/torch-hub \
  storage-user/input \
  storage-user/output \
  storage-user/workflows

2. 启动容器

bash
docker run -it --rm \
  --name comfyui \
  --gpus all \
  -p 8188:8188 \
  -v "$(pwd)"/storage:/root \
  -v "$(pwd)"/storage-models/models:/root/ComfyUI/models \
  -v "$(pwd)"/storage-models/hf-hub:/root/.cache/huggingface/hub \
  -v "$(pwd)"/storage-models/torch-hub:/root/.cache/torch/hub \
  -v "$(pwd)"/storage-user/input:/root/ComfyUI/input \
  -v "$(pwd)"/storage-user/output:/root/ComfyUI/output \
  -v "$(pwd)"/storage-user/workflows:/root/ComfyUI/user/default/workflows \
  xxx.xuanyuan.run/yanwk/comfyui-boot:cu128-slim

提示:如遇兼容性问题,可尝试添加 -e CLI_ARGS="--disable-xformers" 参数。

启动后,在浏览器中访问:

http://localhost:8188

五、CUDA 与 GPU 架构兼容性说明

1. 官方兼容性矩阵(摘要)

CUDA 标签BlackwellHopperAdaAmpereTuringVoltaPascalMaxwell
cu130✔️✔️✔️✔️✔️❌❌❌
cu128 ⭐✔️✔️✔️✔️✔️✔️❌❌
cu126❌✔️✔️✔️✔️✔️✔️✔️

⭐ 官方推荐使用 CUDA 12.8(cu128)。


2. 重要说明(官方原意)

  • 以上限制 并非 NVIDIA CUDA Toolkit 的限制
  • 而是 PyTorch 官方为控制二进制体积而做出的支持取舍
  • 是否可用以 PyTorch 官方发布为准

六、镜像标签说明

1. Slim(推荐新手)

  • 仅包含 ComfyUI 与 Manager
  • 预装大量依赖,便于后续安装自定义节点

可用标签示例:

  • cu126-slim
  • cu128-slim ⭐
  • cu130-slim(无 xFormers)

2. Megapak(整合包)

  • 包含常用自定义节点
  • 包含编译工具链

示例:

  • cu126-megapak
  • cu128-megapak

3. 其他标签

  • nightly:PyTorch 开发预览版
  • rocm / rocm6:AMD GPU
  • xpu-cn:Intel GPU(国内网络优化)
  • cpu:仅 CPU
  • archived:已退役版本

七、CLI_ARGS 参数说明

CLI_ARGS 用于向 ComfyUI 启动脚本传递参数(可选),例如:

bash
-e CLI_ARGS="--disable-xformers"

注意:

  • 并非所有镜像都支持 xFormers(如 cu130 明确不支持)
  • 参数是否可用取决于镜像标签与 PyTorch 构建方式
  • 如遇启动异常,请优先移除 CLI_ARGS 进行排查
  • 对新手来说,通常无需添加此参数即可正常使用

八、官方资源

官方文档

  • ComfyUI-BOOT 官方 GitHub:项目源代码及详细文档
  • ComfyUI 官方文档:ComfyUI 核心功能使用指南

镜像资源

  • ComfyUI-BOOT 镜像文档(轩辕):轩辕镜像平台文档页面
  • ComfyUI-BOOT 镜像标签列表:所有可用镜像版本标签

技术社区

  • ComfyUI 论坛:用户讨论与问题解答
  • Docker 官方文档:Docker 容器技术详细指南
  • NVIDIA Container Toolkit 文档:GPU 容器化部署指南

结语

使用轩辕镜像访问支持可改善 ComfyUI-BOOT 镜像的访问体验,镜像来源于官方公共仓库。

如需进行目录定制、生产化部署、多 GPU 管理等高级配置,请在充分理解官方行为的前提下自行调整。

如遇问题,优先参考 GitHub Issues 与官方文档说明。

你可能也想看

OpenProject Docker 容器化部署指南:从快速启动到生产环境配置

OpenProject是一款功能全面的开源项目管理平台,支持敏捷管理、任务跟踪、工时记录、成本控制等多种项目管理需求,提供社区版和企业版两种部署选项,适配不同规模团队与组织的使用场景。

OpenProject,部署教程,项目管理2026年2月3日

Clawdbot/Moltbot Docker容器化部署指南:打造个人AI助手的完整方案

Moltbot 是一款面向个人用户的自托管 AI 助手容器化应用。它支持在用户自有设备或服务器上运行,兼容多种操作系统与平台,帮助用户构建完全可控的个人 AI 助手环境。

Moltbot,Clawdbot,人工智能2026年1月29日

OpenCode 企业级 Docker 部署完整指南

OpenCode 是一个开源的 AI 编程助手与代码代理(coding agent),旨在让开发者在终端、IDE 或桌面环境下高效地与 AI 协同开发、分析、生成和重构代码。它支持多种大型语言模型(LLM),包括 Claude、OpenAI、Google 等,也可连接本地模型,采用客户端/服务器架构,提供图形界面、终端 UI、GitHub 集成等使用方式。

OpenCode,人工智能,moltbot2026年1月25日

使用 Docker 部署 Clawdbot(官方推荐方式)

Clawdbot 是一款开源的运行在您自己的设备上的个人 AI 助手,该项目聚焦于 Claude 等大模型能力,打造跨平台的 AI 助手操作体验。如果你想要一个感觉像本地助手、速度快、始终在线的单人个人助理,那一定不要错过。

Clawdbot,moltbot,人工智能2026年1月25日

SWEBENCH-VERIFIED Docker 容器化部署指南

SWEBENCH-VERIFIED(镜像名称:`slimshetty/swebench-verified`)是由R2E-Gym项目核心贡献者发布的容器化应用,专为SWE-Bench Verified基准提供预配置的运行环境。该镜像封装了基准数据集、测试工具与适配的运行时环境,旨在简化AI编程助手性能验证、基准工具开发与实验复现流程,避免手动搭建依赖的复杂性,确保实验结果的一致性与可复现性。

SWEBENCH-VERIFIED,人工智能2026年1月21日

从零开始学构建Docker镜像:4种实用方法+生产级实践规范

本文偏向生产与工程实践,新手可跳过部分进阶章节(如CI/CD自动化、多阶段构建优化),优先掌握基础构建方法与核心规范。Docker镜像作为容器的“基石”,掌握镜像构建是玩转Docker的核心技能。本文先完成Docker环境搭建,再拆解4种构建方法与实战案例,同时补充**安全声明、生产规范与禁用场景**,适配个人开发、团队协作及准生产环境需求,帮助建立正确的技术认知与实践边界。

Tutorial,Docker2026年1月20日

免责声明

本博客文章所提供的内容、技术方案、配置示例及部署指南等信息,仅供学习交流和技术参考使用。文章内容基于发布时的技术环境和版本信息编写,可能因时间推移、技术更新或环境差异而存在不适用的情况。

用户在参考本博客内容进行部署操作前,应当充分了解相关技术风险,并建议在测试环境中进行充分验证和测试,确认无误后再考虑在生产环境中使用。生产环境部署前,请务必进行数据备份,并制定相应的回滚方案。

用户因使用本博客内容进行部署操作而产生的任何损失、数据丢失、系统故障、安全风险或其他问题,均由用户自行承担全部责任。轩辕镜像官方不对因使用本博客内容而产生的任何直接或间接损失承担责任。

本免责声明的最终解释权归轩辕镜像官方所有。

最后更新:2026/1/30
轩辕镜像
官方博客
...
comfyui-boot-docker
官方博客Docker 镜像使用技巧与技术博客
热门镜像查看热门 Docker 镜像推荐
一键安装一键安装 Docker 并配置镜像源
镜像拉取问题咨询请 提交工单,官方技术交流群:1072982923
轩辕镜像面向开发者与科研用户,提供开源镜像的搜索和访问支持。所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
镜像拉取问题咨询请提交工单,官方技术交流群:
轩辕镜像面向开发者与科研用户,提供开源镜像的搜索和访问支持。所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
官方邮箱:点击复制邮箱
©2024-2026 源码跳动
官方邮箱:点击复制邮箱Copyright © 2024-2026 杭州源码跳动科技有限公司. All rights reserved.