本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com

prp-osg-wn-gpu是专为PRP(特定研究项目或组织)设计的Docker镜像,基于Open Science Grid(OSG)框架和HTCondor工作流管理系统构建,定位为GPU加速计算节点(Worker Node),用于组建分布式计算池,实现PRP项目中计算资源的高效管理、任务调度及GPU加速计算支持。
docker run -d \ --name prp-osg-wn-gpu-node \ --gpus all \ # 挂载所有GPU设备(需Docker支持GPU) -v /path/to/prp-config:/etc/prp \ # 挂载PRP项目配置文件 -v /path/to/condor-config:/etc/condor \ # 挂载HTCondor配置文件 --network=host \ # 建议使用host网络以确保节点间通信 prp-osg-wn-gpu
| 环境变量名 | 说明 | 默认值 |
|---|---|---|
PRP_PROJECT_ID | PRP项目标识,用于节点身份认证 | default |
CONDOR_COLLECTOR_HOST | HTCondor中心 collector 地址 | 需用户指定 |
GPU_ALLOCATION_POLICY | GPU资源分配策略(如exclusive_process) | shared |
/etc/prp:PRP项目特定配置目录,包含节点认证信息、任务队列配置等/etc/condor:HTCondor服务配置目录,可自定义任务调度策略、资源限制等/var/lib/condor:HTCondor运行时数据目录,建议持久化挂载以保留任务状态部署后可通过以下命令验证节点状态:
# 查看容器日志 docker logs prp-osg-wn-gpu-node # 检查HTCondor服务状态 docker exec -it prp-osg-wn-gpu-node condor_status # 验证GPU识别情况 docker exec -it prp-osg-wn-gpu-node nvidia-smi # 需宿主安装nvidia驱动

免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。
免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。
当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。
通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。
先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。
使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤
在 Linux 系统上配置轩辕镜像源,支持主流发行版
在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统
在 Docker Compose 中使用轩辕镜像加速,支持容器编排
在 k8s 中配置 containerd 使用轩辕镜像加速
在宝塔面板中配置轩辕镜像加速,提升服务器管理效率
在 Synology 群晖NAS系统中配置轩辕镜像加速
在飞牛fnOS系统中配置轩辕镜像加速
在极空间NAS中配置轩辕镜像加速
在爱快ikuai系统中配置轩辕镜像加速
在绿联NAS系统中配置轩辕镜像加速
在威联通NAS系统中配置轩辕镜像加速
在 Podman 中配置轩辕镜像加速,支持多系统
配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤
无需登录即可使用轩辕镜像加速服务,更加便捷高效
需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429