本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com

If you encounter issues that were not present before, please try switching to the following image versions:
siutin/stable-diffusion-webui-docker:latest-cuda-12.1.1 siutin/stable-diffusion-webui-docker:cuda-v1.10.1-2024-07-30
# With the latest CUDA version docker run -it --name sdw --gpus all --network host \ -v $(pwd)/models:/app/stable-diffusion-webui/models \ -v $(pwd)/outputs:/app/stable-diffusion-webui/outputs \ --rm siutin/stable-diffusion-webui-docker:latest-cuda \ bash webui.sh --share # with specific CUDA version docker run -it --name sdw --gpus all --network host \ -v $(pwd)/models:/app/stable-diffusion-webui/models \ -v $(pwd)/outputs:/app/stable-diffusion-webui/outputs \ --rm siutin/stable-diffusion-webui-docker:latest-cuda-12.6.2 \ bash webui.sh --share
docker run -it --name sdw --network host \ -v $(pwd)/models:/app/stable-diffusion-webui/models \ -v $(pwd)/outputs:/app/stable-diffusion-webui/outputs \ --rm siutin/stable-diffusion-webui-docker:latest-cpu \ bash webui.sh --skip-torch-cuda-test --use-cpu all --precision full --no-half --share
mkdir -p /MY-DATA-DIR && cd /MY-DATA-DIR mkdir models outputs sudo chown ***:$UID -R models outputs sudo chmod 775 -R models outputs
# Cloning the project repository git clone "[***]" && cd stable-diffusion-webui-docker # Nvidia CUDA image nvidia-docker buildx build -f Dockerfile.cuda \ --platform linux/amd64 \ --build-arg BUILD_DATE=$(date -u +'%Y-%m-%dT%H:%M:%SZ') \ --build-arg BUILD_VERSION=custom-cuda \ -t siutin/stable-diffusion-webui-docker:custom-cuda . # Nvidia CUDA image with specific version nvidia-docker buildx build -f Dockerfile.cuda \ --platform linux/amd64 \ --build-arg BUILD_DATE=$(date -u +'%Y-%m-%dT%H:%M:%SZ') \ --build-arg BUILD_VERSION=custom-cuda \ --build-arg CUDA_VERSION=12.5.1 \ -t siutin/stable-diffusion-webui-docker:custom-cuda-12.5 . # CPU only image docker buildx build -f Dockerfile.cpu \ --platform linux/arm64 \ --build-arg BUILD_DATE=$(date -u +'%Y-%m-%dT%H:%M:%SZ') \ --build-arg BUILD_VERSION=custom-cpu \ -t siutin/stable-diffusion-webui-docker:custom-cpu .
# Check your current CUDA Driver API version nvidia-smi -x -q |sed -n 's/.*<cuda_version>\(.*\)<\/cuda_version>.*/\1/p'
免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。
免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。
当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。
通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。
先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。
使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤
在 Linux 系统上配置轩辕镜像源,支持主流发行版
在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统
在 Docker Compose 中使用轩辕镜像加速,支持容器编排
在 k8s 中配置 containerd 使用轩辕镜像加速
在宝塔面板中配置轩辕镜像加速,提升服务器管理效率
在 Synology 群晖NAS系统中配置轩辕镜像加速
在飞牛fnOS系统中配置轩辕镜像加速
在极空间NAS中配置轩辕镜像加速
在爱快ikuai系统中配置轩辕镜像加速
在绿联NAS系统中配置轩辕镜像加速
在威联通NAS系统中配置轩辕镜像加速
在 Podman 中配置轩辕镜像加速,支持多系统
配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤
无需登录即可使用轩辕镜像加速服务,更加便捷高效
需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429