本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com

本镜像是一个预配置的基础Docker镜像,集成了PyTorch深度学***框架与Flash Attention高性能注意力机制库。旨在为Transformer架构模型(如LLM、BERT、GPT等)的开发、训练及推理提供标准化运行环境,简化依赖配置流程并优化计算效率。
# 基础版本(CPU+GPU通用) docker pull pytorch-flash-attention:latest # 指定版本(推荐生产环境使用) docker pull pytorch-flash-attention:2.0-cuda11.7
docker login [私有仓库地址] docker pull [私有仓库地址]/pytorch-flash-attention:latest
docker run -it --rm \ --gpus all \ # 启用所有GPU(需NVIDIA Docker运行时支持) -v /本地代码目录:/app \ # 挂载本地代码 -w /app \ # 设置工作目录 -e CUDA_VISIBLE_DEVICES=0,1 \ # 指定可用GPU pytorch-flash-attention:latest \ bash
docker run -d \ --name transformer-training \ --gpus '"device=0"' \ # 指定使用第1块GPU -v /本地数据目录:/data \ -v /本地模型输出目录:/output \ -e PYTHONPATH=/app \ pytorch-flash-attention:latest \ python /app/train.py \ --data-path /data/train_data \ --output-path /output/model_checkpoint \ --epochs 10
version: '3.8' services: torch-training: image: pytorch-flash-attention:2.0-cuda11.7 container_name: llm-training runtime: nvidia deploy: resources: reservations: devices: - driver: nvidia count: 2 # 使用2块GPU capabilities: [gpu] volumes: - ./code:/app - ./dataset:/data - ./checkpoints:/models - ./logs:/var/log/training environment: - CUDA_VISIBLE_DEVICES=0,1 - PYTHONPATH=/app:/app/utils - MODEL_MAX_SEQ_LEN=2048 working_dir: /app command: > sh -c "python -m torch.distributed.launch --nproc_per_node=2 train.py --data-path /data/llm_corpus --save-dir /models --log-dir /var/log/training" ports: - "6006:6006" # TensorBoard端口映射
| 环境变量名 | 描述 | 默认值 |
|---|---|---|
CUDA_VISIBLE_DEVICES | 指定容器内可见GPU设备ID(如"0"、"0,1"),设为"-1"禁用GPU | "all" |
PYTHONPATH | Python模块搜索路径,用于导入自定义代码 | "/app" |
FLASH_ATTENTION_BACKEND | 指定Flash Attention后端实现("flash"或"pytorch") | "flash" |
MAX_BATCH_SIZE | 默认批处理大小限制 | 32 |
MODEL_CACHE_DIR | 模型权重缓存目录 | "/root/.cache/huggingface/hub" |
PYTHONDONTWRITEBYTECODE | 禁止生成.pyc文件(减少磁盘I/O) | "1" |
# 完整数据挂载命令 docker run -it \ -v $(pwd)/code:/app \ # 代码目录 -v $(pwd)/dataset:/data \ # 数据集目录 -v $(pwd)/models:/models \ # 模型权重目录 -v $(pwd)/logs:/logs \ # 日志目录 -v $(pwd)/cache:/cache \ # 缓存目录 pytorch-flash-attention:latest
# 创建持久化数据卷 docker volume create torch-training-data docker volume create torch-model-cache # 使用数据卷启动容器 docker run -it \ -v torch-training-data:/data \ -v torch-model-cache:/root/.cache \ pytorch-flash-attention:latest
基于本镜像扩展功能的Dockerfile示例:
FROM pytorch-flash-attention:2.0-cuda11.7 # 安装额外依赖 COPY requirements.txt . RUN pip install --no-cache-dir -r requirements.txt # 添加项目代码 COPY ./src /app/src COPY ./scripts /app/scripts # 配置非root用户 RUN useradd -m appuser USER appuser WORKDIR /app # 设置默认启动命令 CMD ["python", "/app/scripts/start_service.py"]
构建命令:
docker build -t custom-torch-flash-app:v1 .
2.0-cuda11.7)而非latest可避免版本兼容性问题--memory和--cpus参数限制容器资源使用USER指令在Dockerfile中配置/var/run/nvidia-smi实现容器内GPU监控:-v /var/run/nvidia-smi:/var/run/nvidia-smi免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。
免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。
当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。
通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。
先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。
使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤
在 Linux 系统上配置轩辕镜像源,支持主流发行版
在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统
在 Docker Compose 中使用轩辕镜像加速,支持容器编排
在 k8s 中配置 containerd 使用轩辕镜像加速
在宝塔面板中配置轩辕镜像加速,提升服务器管理效率
在 Synology 群晖NAS系统中配置轩辕镜像加速
在飞牛fnOS系统中配置轩辕镜像加速
在极空间NAS中配置轩辕镜像加速
在爱快ikuai系统中配置轩辕镜像加速
在绿联NAS系统中配置轩辕镜像加速
在威联通NAS系统中配置轩辕镜像加速
在 Podman 中配置轩辕镜像加速,支持多系统
配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤
无需登录即可使用轩辕镜像加速服务,更加便捷高效
需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429