本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com

本Docker镜像为深度学任务提供预配置的运行环境,集成了PyTorch深度学框架、NVIDIA CUDA工具包及Apex混合精度训练库。通过容器化封装,解决了深度学环境配置中PyTorch、CUDA、GPU驱动及依赖库版本兼容性问题,支持一键启动GPU加速的深度学开发、训练与推理流程,适用于学术研究、工业项目开发及教学实验等场景。
torch.nn、torch.optim、torch.utils.data等)。amp模块支持自动混合精度训练,在保持模型精度的同时减少显存使用(最高可减少50%)并提升计算速度(最高可提升2倍)。distributed模块与PyTorch分布式训练接口无缝集成,支持多GPU/多节点分布式训练配置。docker pull [镜像仓库地址]/pytorch-cuda-apex:latest # 替换为实际镜像仓库地址
docker run --gpus all -it --rm [镜像仓库地址]/pytorch-cuda-apex:latest /bin/bash
--gpus all:允许容器使用主机所有GPU资源(可指定具体GPU,如--gpus "device=0,1")。-it:交互式终端模式。--rm:容器退出后自动删除。挂载本地项目目录至容器,实现数据持久化与文件共享:
docker run --gpus all -it --rm \ -v /本地项目路径:/workspace \ # 挂载本地项目目录到容器内/workspace -w /workspace \ # 设置工作目录为/workspace [镜像仓库地址]/pytorch-cuda-apex:latest \ /bin/bash
在容器内执行PyTorch训练脚本(假设本地项目目录已挂载至/workspace):
# 在容器终端内执行 python /workspace/train.py --epochs 10 --batch-size 32 --mixed-precision # 启用混合精度训练
创建docker-compose.yml文件,简化多容器或复杂配置管理:
version: '3.8' services: pytorch-training: image: [镜像仓库地址]/pytorch-cuda-apex:latest runtime: nvidia # 或使用deploy.resources.limits.nvidia.com/gpu(取决于Docker版本) volumes: - /本地项目路径:/workspace working_dir: /workspace environment: - PYTHONPATH=/workspace # 设置Python路径 - CUDA_VISIBLE_DEVICES=0,1 # 指定使用GPU 0和1 command: python train.py --epochs 20 --mixed-precision
启动服务:
docker-compose up
容器支持通过环境变量自定义运行参数,常用配置如下:
| 环境变量名 | 说明 | 默认值 |
|---|---|---|
PYTHONPATH | Python模块搜索路径 | /usr/local/lib/python3.x/site-packages |
CUDA_VISIBLE_DEVICES | 指定容器可见GPU设备ID(逗号分隔) | all |
APEX_OPT_LEVEL | Apex混合精度优化级别(O0/O1/O2/O3) | O1 |
LOG_LEVEL | 日志输出级别(DEBUG/INFO/WARNING/ERROR) | INFO |
如需扩展镜像功能(如安装额外依赖包),可基于此镜像创建Dockerfile:
FROM [镜像仓库地址]/pytorch-cuda-apex:latest # 安装额外Python依赖 RUN pip install pandas scikit-learn tensorboard # 安装系统依赖 RUN apt-get update && apt-get install -y git wget && rm -rf /var/lib/apt/lists/* # 设置工作目录 WORKDIR /workspace
构建自定义镜像:
docker build -t custom-pytorch-cuda-apex .
--gpus或CUDA_VISIBLE_DEVICES控制GPU使用,避免资源冲突。O1/O2模式)与分布式训练(torch.distributed)以提升效率。免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。
免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。
当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。
通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。
先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。
使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤
在 Linux 系统上配置轩辕镜像源,支持主流发行版
在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统
在 Docker Compose 中使用轩辕镜像加速,支持容器编排
在 k8s 中配置 containerd 使用轩辕镜像加速
在宝塔面板中配置轩辕镜像加速,提升服务器管理效率
在 Synology 群晖NAS系统中配置轩辕镜像加速
在飞牛fnOS系统中配置轩辕镜像加速
在极空间NAS中配置轩辕镜像加速
在爱快ikuai系统中配置轩辕镜像加速
在绿联NAS系统中配置轩辕镜像加速
在威联通NAS系统中配置轩辕镜像加速
在 Podman 中配置轩辕镜像加速,支持多系统
配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤
无需登录即可使用轩辕镜像加速服务,更加便捷高效
需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429