轩辕镜像
轩辕镜像专业版
个人中心搜索镜像
交易
充值流量我的订单
工具
工单支持镜像收录Run 助手IP 归属地密码生成Npm 源Pip 源
帮助
常见问题我要吐槽
其他
关于我们网站地图

官方QQ群: 13763429

轩辕镜像
镜像详情
dustynv/stable-diffusion-webui
官方博客使用教程热门镜像工单支持
本站面向开发者与科研用户,提供开源镜像的搜索和下载加速服务。
所有镜像均来源于原始开源仓库,本站不存储、不修改、不传播任何镜像内容。
轩辕镜像 - 国内开发者首选的专业 Docker 镜像下载加速服务平台 - 官方QQ群:13763429 👈点击免费获得技术支持。
本站面向开发者与科研用户,提供开源镜像的搜索和下载加速服务。所有镜像均来源于原始开源仓库,本站不存储、不修改、不传播任何镜像内容。

本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com

stable-diffusion-webui Docker 镜像下载 - 轩辕镜像

stable-diffusion-webui 镜像详细信息和使用指南

stable-diffusion-webui 镜像标签列表和版本信息

stable-diffusion-webui 镜像拉取命令和加速下载

stable-diffusion-webui 镜像使用说明和配置指南

Docker 镜像加速服务 - 轩辕镜像平台

国内开发者首选的 Docker 镜像加速平台

极速拉取 Docker 镜像服务

相关 Docker 镜像推荐

热门 Docker 镜像下载

stable-diffusion-webui
dustynv/stable-diffusion-webui

stable-diffusion-webui 镜像详细信息

stable-diffusion-webui 镜像标签列表

stable-diffusion-webui 镜像使用说明

stable-diffusion-webui 镜像拉取命令

Docker 镜像加速服务

轩辕镜像平台优势

镜像下载指南

相关 Docker 镜像推荐

为NVIDIA Jetson平台提供Stable Diffusion的Web界面容器,支持在嵌入式设备上通过网页进行AI图像生成。
1 收藏0 次下载activedustynv镜像
🚀轩辕镜像专业版更稳定💎一键安装 Docker 配置镜像源
中文简介版本下载
🚀轩辕镜像专业版更稳定💎一键安装 Docker 配置镜像源

stable-diffusion-webui 镜像详细说明

stable-diffusion-webui 使用指南

stable-diffusion-webui 配置说明

stable-diffusion-webui 官方文档

stable-diffusion-webui Docker镜像文档

1. 镜像概述和主要用途

stable-diffusion-webui 是一个基于 AUTOMATIC1111/stable-diffusion-webui 项目的Docker镜像,集成了 TensorRT扩展,专为NVIDIA Jetson平台优化。镜像内Web UI程序位于 /opt/stable-diffusion-webui,主要用途是提供图形化界面,方便用户通过浏览器进行 Stable Diffusion 模型的图像生成(文本转图像、图像转图像等)。

2. 核心功能和特性

  • TensorRT加速:集成TensorRT扩展,优化模型推理性能,提升图像生成速度。
  • 默认Web服务配置:启动时自动运行Web服务器,无需手动配置即可通过浏览器访问。
  • xformers优化:默认启用xformers库,优化注意力机制的内存占用和计算效率。
  • 自动模型管理:首次启动时自动从Hugging Face下载默认模型(stable-diffusion-1.5)。
  • 低显存支持:提供--medvram和--lowvram模式,适配不同显存容量的Jetson设备。
  • 扩展兼容性:支持安装Web UI扩展(需通过--enable-insecure-extension-access开启)。
  • Stable Diffusion XL支持:兼容SDXL基础模型和优化器模型(如stabilityai/stable-diffusion-xl-base-1.0)。

3. 使用场景和适用范围

  • Jetson嵌入式设备:适用于NVIDIA Jetson系列平台(如Jetson AGX Orin、Jetson Xavier NX、Jetson Nano等),利用硬件加速实现本地化图像生成。
  • Web UI用户:适合偏好图形界面操作的用户,无需命令行即可调整参数(提示词、采样器、分辨率等)并生成图像。
  • 资源受限环境:通过--medvram/--lowvram参数,可在显存有限的设备上运行(如Jetson Nano需使用--lowvram)。
  • 快速部署需求:Docker化封装简化依赖管理,一键启动,适合快速测试和原型验证。

4. 使用方法和配置说明

4.1 镜像选择

镜像标签与JetPack/L4T版本对应,需根据设备的JetPack版本选择:

镜像标签发布日期架构大小兼容JetPack版本
dustynv/stable-diffusion-webui:r35.2.12024-02-02arm647.3GBJetPack 5.1+ (L4T R35.x)
dustynv/stable-diffusion-webui:r35.3.12024-02-02arm647.3GBJetPack 5.1+ (L4T R35.x)
dustynv/stable-diffusion-webui:r35.4.12024-02-02arm647.3GBJetPack 5.1+ (L4T R35.x)
dustynv/stable-diffusion-webui:r36.2.02024-02-02arm648.9GBJetPack 6.0+ (L4T R36.x)

兼容性说明:L4T R35.x镜像适用于所有JetPack 5.1+版本,L4T R36.x镜像适用于JetPack 6.0+版本。

4.2 运行容器

4.2.1 使用jetson-containers工具(推荐)

通过jetson-containers工具自动选择兼容镜像并启动:

# 自动拉取/构建兼容镜像并运行
jetson-containers run $(autotag stable-diffusion-webui)

# 或指定具体镜像标签
jetson-containers run dustynv/stable-diffusion-webui:r35.3.1

jetson-containers run会自动添加--runtime nvidia、挂载/data目录(模型缓存),并检测设备硬件。

4.2.2 使用docker run手动运行

若直接使用docker命令,需手动指定NVIDIA运行时和网络配置:

sudo docker run \
  --runtime nvidia \          # 使用NVIDIA运行时(GPU支持)
  -it --rm \                  # 交互式运行,退出后自动删除容器
  --network=host \            # 共享主机网络(简化端口映射)
  dustynv/stable-diffusion-webui:r35.3.1  # 镜像标签(需替换为实际版本)

4.3 目录挂载

如需持久化存储模型、生成图像或配置文件,可挂载主机目录到容器:

# 挂载主机模型目录到容器(避免重复下载)
jetson-containers run -v /host/path/to/models:/data/models/stable-diffusion $(autotag stable-diffusion-webui)

# 挂载生成图像目录(方便主机访问输出结果)
jetson-containers run -v /host/path/to/outputs:/opt/stable-diffusion-webui/outputs $(autotag stable-diffusion-webui)

4.4 自定义启动参数

默认启动命令为:

cd /opt/stable-diffusion-webui && python3 launch.py \
  --data=/data/models/stable-diffusion \
  --enable-insecure-extension-access \
  --xformers \
  --listen \
  --port=7860

如需修改参数(如添加--medvram),可通过jetson-containers run或docker run覆盖默认命令:

# 使用jetson-containers添加自定义参数
jetson-containers run $(autotag stable-diffusion-webui) \
  python3 launch.py --data=/data/models/stable-diffusion --xformers --listen --port=7860 --medvram

# 使用docker run添加自定义参数
sudo docker run --runtime nvidia -it --rm --network=host \
  dustynv/stable-diffusion-webui:r35.3.1 \
  python3 launch.py --data=/data/models/stable-diffusion --lowvram --port=7861

5. 配置参数说明

5.1 默认参数

参数作用说明
--data=/data/models/stable-diffusion指定Stable Diffusion模型存储路径,默认使用容器内/data目录(可通过挂载主机目录修改)。
--enable-insecure-extension-access允许安装和管理Web UI扩展(如社区插件、脚本)。
--xformers启用xformers库,优化注意力机制的内存占用和计算速度(需硬件支持)。
--listen允许Web服务器监听所有网络接口,支持外部设备通过IP访问(如http://<设备IP>:7860)。
--port=7860指定Web UI访问端口,默认7860(若端口冲突可修改,如--port=7861)。

5.2 常用可选参数

参数作用说明
--medvram中等显存模式:通过分块加载模型降低显存占用,适用于4-8GB显存设备(如Jetson Xavier NX)。
--lowvram低显存模式:大幅降低显存占用(约2-4GB),但生成速度较慢,适用于2GB显存设备(如Jetson Nano)。
--precision full --no-half使用FP32精度推理(默认FP16),提升兼容性但降低速度、增加显存占用。
--opt-split-attention优化注意力机制的内存分配(默认启用,低显存场景建议保留)。

6. 构建容器(可选)

若需自定义镜像(如修改依赖或添加插件),可手动构建:

  1. 首先完成jetson-containers系统配置。
  2. 执行构建命令:
jetson-containers build stable-diffusion-webui  # 自动检测JetPack版本并构建兼容镜像

构建过程会自动拉取依赖(如CUDA、PyTorch、xformers等),并打包Web UI程序和TensorRT扩展。

7. 注意事项和技巧

  • 访问Web UI:启动容器后,在浏览器中访问 http://<设备IP>:7860(替换<设备IP>为Jetson设备的IP地址或主机名)。
  • 模型下载:首次启动时会自动下载stable-diffusion-1.5模型(约4GB),需确保网络畅通,下载时间取决于网络速度。
  • 负面提示词优化:参考Hugging Face负面提示词讨论提升生成图像质量。
  • Stable Diffusion XL使用:需手动下载SDXL模型(如base-1.0和refiner-1.0),并放置于--data指定的模型目录,在Web UI中选择对应模型即可使用。
  • 扩展安装:通过Web UI的“扩展”选项卡安装社区插件,需确保已启用--enable-insecure-extension-access参数。

8. 依赖和系统要求

  • 硬件:NVIDIA Jetson设备(需支持JetPack 5.1+,即L4T >=34.1.0)。
  • 软件:Docker、nvidia-docker运行时、JetPack 5.1+(含CUDA、cuDNN、TensorRT)。
  • 依赖项:build-essential、CUDA、cuDNN、Python 3.x、PyTorch 2.2+、xformers、TensorRT等(已内置在镜像中)。
查看更多 stable-diffusion-webui 相关镜像 →
universonic/stable-diffusion-webui logo
universonic/stable-diffusion-webui
by universonic
这是一个适用于NVIDIA显卡的Stable Diffusion WebUI Docker镜像,集成了Stable Diffusion的网页用户界面,专为NVIDIA GPU优化以实现高效AI图像生成,包含必要依赖组件,可简化部署流程,方便开发者及用户快速搭建和使用Stable Diffusion进行文本到图像生成、图像编辑等任务,无需复杂配置即可利用GPU加速性能,是基于Docker容器技术的便捷工具。
102100K+ pulls
上次更新:5 个月前
ashleykza/stable-diffusion-webui logo
ashleykza/stable-diffusion-webui
by ashleykza
暂无描述
10K+ pulls
上次更新:5 天前

常见问题

轩辕镜像免费版与专业版有什么区别?

免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。

轩辕镜像免费版与专业版有分别支持哪些镜像?

免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。

流量耗尽错误提示

当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。

410 错误问题

通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。

manifest unknown 错误

先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。

镜像拉取成功后,如何去掉轩辕镜像域名前缀?

使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。

查看全部问题→

轩辕镜像下载加速使用手册

探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式

🔐

登录方式进行 Docker 镜像下载加速教程

通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤

🐧

Linux Docker 镜像下载加速教程

在 Linux 系统上配置轩辕镜像源,支持主流发行版

🖥️

Windows/Mac Docker 镜像下载加速教程

在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统

📦

Docker Compose 镜像下载加速教程

在 Docker Compose 中使用轩辕镜像加速,支持容器编排

📋

K8s containerd 镜像下载加速教程

在 k8s 中配置 containerd 使用轩辕镜像加速

🔧

宝塔面板 Docker 镜像下载加速教程

在宝塔面板中配置轩辕镜像加速,提升服务器管理效率

💾

群晖 NAS Docker 镜像下载加速教程

在 Synology 群晖NAS系统中配置轩辕镜像加速

🐂

飞牛fnOS Docker 镜像下载加速教程

在飞牛fnOS系统中配置轩辕镜像加速

📱

极空间 NAS Docker 镜像下载加速教程

在极空间NAS中配置轩辕镜像加速

⚡

爱快路由 ikuai Docker 镜像下载加速教程

在爱快ikuai系统中配置轩辕镜像加速

🔗

绿联 NAS Docker 镜像下载加速教程

在绿联NAS系统中配置轩辕镜像加速

🌐

威联通 NAS Docker 镜像下载加速教程

在威联通NAS系统中配置轩辕镜像加速

📦

Podman Docker 镜像下载加速教程

在 Podman 中配置轩辕镜像加速,支持多系统

📚

ghcr、Quay、nvcr、k8s、gcr 等仓库下载镜像加速教程

配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤

🚀

专属域名方式进行 Docker 镜像下载加速教程

无需登录即可使用轩辕镜像加速服务,更加便捷高效

需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429

商务:17300950906
|©2024-2025 源码跳动
商务合作电话:17300950906|Copyright © 2024-2025 杭州源码跳动科技有限公司. All rights reserved.