rocm/pytorch-training针对ROCm优化的统一PyTorch基础训练容器。
PyTorch是一款开源机器学习框架,广泛用于模型训练,其GPU优化组件适用于基于Transformer的模型。
ROCm PyTorch训练Docker镜像rocm/pytorch-training:v25.5(可通过AMD Infinity Hub获取)提供预构建的优化环境,用于在AMD Instinct™ MI300X和MI325X加速器上进行模型微调与预训练。详细文档请参考ROCm文档页面:[***]
bashdocker pull rocm/pytorch-training:v25.5
以下命令展示如何运行容器进行Qwen2模型微调:
bashdocker run -it --rm \ --device=/dev/kfd \ --device=/dev/dri \ --group-add video \ --ipc=host \ -v /本地数据路径:/data \ -v /模型 checkpoint 路径:/checkpoints \ rocm/pytorch-training:v25.5 \ bash -c "cd /workspace && \ torchtune finetune --model qwen2-7b --data /data/train_data.json --checkpoint /checkpoints/qwen2-7b-base --output_dir /data/output"
说明:
--device:挂载ROCm设备以访问GPU--group-add video:添加视频组权限--ipc=host:使用主机IPC命名空间,避免共享内存限制-v:挂载本地数据和模型文件到容器内库更新:
增强FP8支持覆盖范围
新增Qwen模型微调支持
支持GPT-OSS模型微调
修复因PyTorch更新导致的SemiAnalysis模型问题
库更新:
开箱即用地全面支持上游pytorch/TorchTune
新增与最新Torchtune匹配的支持矩阵
为所有支持的模型和用法添加基准测试示例
新增统一的Torchtune_Tester.sh脚本,用于Torchtune微调基准测试
新增模型支持及基准测试示例:
开箱即支持Torchtitan:
由于ROCm 6.4运行时问题,仍使用ROCm 6.3.4,已确定解决方法,将在下一版本应用
上游Torchtune中Llama 3.2视觉模型LoRA微调存在已知问题
ROCm 6.3存在内存泄漏问题(将在ROCm 6.4中修复)
移除2024年12月使用的Semi Analysis模型的基准测试支持,因其实现不再支持PyTorch 2.8+
库更新:
全面支持TorchTune:
Torchtune打包输入设置下性能提升约38%
SPDA内存高效后端存在数值问题报告
ROCm 6.3存在内存泄漏问题(将在ROCm 6.4中修复)
manifest unknown 错误
TLS 证书验证失败
DNS 解析超时
410 错误:版本过低
402 错误:流量耗尽
身份认证失败错误
429 限流错误
凭证保存错误
来自真实用户的反馈,见证轩辕镜像的优质服务