本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com

本镜像是基于Stable Diffusion的Docker封装,预集成了通过Krita插件调用Stable Diffusion所需的全部依赖(包括Python运行时、API服务组件、模型加载库等)。其核心用途是简化数字艺术家及开发者通过Krita进行AI辅助绘画的部署流程,无需手动配置复杂的依赖环境,可快速实现Krita与Stable Diffusion的联动。
torch、diffusers、requests等),无需额外安装。krita-ai-diffusion、Stable Diffusion Krita Plugin),确保插件可直接调用镜像内的Stable Diffusion服务。从Docker仓库拉取镜像(假设镜像名称为sd-krita-integration:latest,实际名称需替换为官方/私有仓库地址):
docker pull [仓库地址]/sd-krita-integration:latest
CPU模式(仅用于测试,生成速度较慢):
docker run -d \ --name sd-krita-service \ -p 7860:7860 \ # API端口映射(Krita插件需连接此端口) -v /path/to/local/models:/app/stable-diffusion/models \ # 挂载本地模型文件(.ckpt/.safetensors) -v /path/to/local/outputs:/app/outputs \ # 挂载生成结果目录 [仓库地址]/sd-krita-integration:latest
GPU加速模式(推荐,需nvidia-docker支持):
docker run -d \ --name sd-krita-gpu-service \ --gpus all \ # 启用所有GPU(或指定数量,如"device=0") -p 7860:7860 \ -v /path/to/local/models:/app/stable-diffusion/models \ -v /path/to/local/outputs:/app/outputs \ -e ENABLE_GPU=true \ # 启用GPU加速 [仓库地址]/sd-krita-integration:latest
创建docker-compose.yml文件,适合多容器管理或持久化部署:
version: '3.8' services: sd-krita: image: [仓库地址]/sd-krita-integration:latest container_name: sd-krita-service restart: unless-stopped # 容器退出后自动重启 ports: - "7860:7860" # API端口(与Krita插件配置一致) volumes: - ./local-models:/app/stable-diffusion/models # 宿主机模型目录(相对路径) - ./local-outputs:/app/outputs # 宿主机输出目录(相对路径) environment: - STABLE_DIFFUSION_API_PORT=7860 # API服务监听端口 - ENABLE_GPU=true # 启用GPU(需宿主GPU支持) - MODEL_LOAD_PATH=/app/stable-diffusion/models # 容器内模型加载路径 deploy: resources: reservations: devices: - driver: nvidia count: all # 使用所有GPU(或指定数量,如1) capabilities: [gpu] # 声明GPU能力
启动服务:
docker-compose up -d
http://localhost:7860,若显示Stable Diffusion API状态页或WebUI,则服务正常运行。krita-ai-diffusion)。http://localhost:7860。/app/stable-diffusion/models)。./local-outputs)生成图像文件,则连接成功。通过-e参数或docker-compose.yml的environment字段配置,支持以下参数:
| 参数名 | 描述 | 默认值 | 可选值 |
|---|---|---|---|
| STABLE_DIFFUSION_API_PORT | API服务监听端口(需与Krita插件一致) | 7860 | 1024-65535(避免端口冲突) |
| ENABLE_GPU | 是否启用GPU加速(需宿主GPU支持) | false | true(启用)/false(禁用) |
| MODEL_LOAD_PATH | 容器内模型文件加载路径 | /app/stable-diffusion/models | 容器内绝对路径(需与卷挂载匹配) |
| LOG_LEVEL | 日志输出级别 | info | debug/info/warn/error |
通过-v参数或docker-compose.yml的volumes字段挂载,支持以下路径:
| 宿主机路径 | 容器内路径 | 用途 |
|---|---|---|
| /path/to/local-models | /app/stable-diffusion/models | 存储Stable Diffusion模型文件(.ckpt/.safetensors/LoRA等) |
| /path/to/local-outputs | /app/outputs | 保存Krita插件调用生成的图像结果(PNG/JPG格式) |
| 宿主机端口 | 容器内端口 | 用途 |
|---|---|---|
| 7860 | 7860 | Stable Diffusion API服务端口,供Krita插件发送请求 |
/app/stable-diffusion/models)。ENABLE_GPU=true启用GPU,并确保模型文件为优化版本(如FP16格式)。免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。
免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。
当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。
通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。
先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。
使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤
在 Linux 系统上配置轩辕镜像源,支持主流发行版
在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统
在 Docker Compose 中使用轩辕镜像加速,支持容器编排
在 k8s 中配置 containerd 使用轩辕镜像加速
在宝塔面板中配置轩辕镜像加速,提升服务器管理效率
在 Synology 群晖NAS系统中配置轩辕镜像加速
在飞牛fnOS系统中配置轩辕镜像加速
在极空间NAS中配置轩辕镜像加速
在爱快ikuai系统中配置轩辕镜像加速
在绿联NAS系统中配置轩辕镜像加速
在威联通NAS系统中配置轩辕镜像加速
在 Podman 中配置轩辕镜像加速,支持多系统
配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤
无需登录即可使用轩辕镜像加速服务,更加便捷高效
需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429