专属域名
文档搜索
轩辕助手
Run助手
邀请有礼
返回顶部
快速返回页面顶部
收起
收起工具栏
轩辕镜像 官方专业版
轩辕镜像 官方专业版轩辕镜像 官方专业版官方专业版
首页个人中心搜索镜像

交易
充值流量我的订单
工具
提交工单镜像收录一键安装
Npm 源Pip 源Homebrew 源
帮助
常见问题
其他
关于我们网站地图

官方QQ群: 1072982923

nvidia/dcgm Docker 镜像 - 轩辕镜像

dcgm
nvidia/dcgm
NVIDIA Data Center GPU Manager (DCGM) 容器镜像,用于在集群环境中管理和监控NVIDIA数据中心GPU,提供主动健康监控、全面诊断、系统警报及电源和时钟管理等功能,可作为独立服务运行,支持客户端连接访问GPU遥测和健康状态等功能。
2 收藏0 次下载
📦 一套镜像服务,解决研发 / 测试 / 生产三套环境
中文简介版本下载
📦 一套镜像服务,解决研发 / 测试 / 生产三套环境

NVIDIA DCGM 容器镜像文档

镜像概述与主要用途

NVIDIA Data Center GPU Manager (DCGM) 是一套用于在集群环境中管理和监控NVIDIA数据中心GPU的工具套件。它包含主动健康监控、全面诊断、系统警报以及治理策略(包括电源和时钟管理)等功能。该容器镜像实现了独立的DCGM服务,客户端可通过连接该容器访问GPU遥测、健康状态等相关功能。

核心功能与特性

  • 主动健康监控:实时监测GPU运行状态,及时发现潜在问题。
  • 全面诊断能力:提供GPU详细诊断信息,辅助故障排查。
  • 系统警报机制:针对GPU异常状态生成系统级警报,支持及时响应。
  • 治理策略管理:包含电源和时钟管理等策略,优化GPU资源利用。
  • 独立服务运行:容器化部署,可作为独立服务运行于集群环境。
  • 易于集成扩展:支持与NVIDIA合作伙伴的集群管理工具、资源调度和监控产品集成。

使用场景与适用范围

适用于需要对NVIDIA数据中心GPU进行集中管理和监控的集群环境,主要场景包括:

  • GPU遥测数据采集:通过客户端工具(如dcgmi dmon)实时获取GPU性能指标。
  • GPU健康状态监测:通过DCGM API检查GPU健康状况,确保设备稳定运行。

使用方法与配置说明

前提条件
  • 主机需安装NVIDIA Docker运行时,支持--gpus参数。
  • 需根据需求选择合适的镜像标签(如3.3.7-1-ubuntu22.04)。
场景1:访问GPU遥测数据

若需采集GPU性能指标,容器需具备SYS_ADMIN权限。启动命令如下:

bash
docker run --gpus all \
   --cap-add SYS_ADMIN \
   -p 5555:5555 \
   nvidia/dcgm:3.3.7-1-ubuntu22.04

参数说明:

  • --gpus all:允许容器访问主机所有GPU设备。
  • --cap-add SYS_ADMIN:添加系统管理权限,用于采集性能指标。
  • -p 5555:5555:将容器内5555端口映射到主机,供客户端连接nv-hostengine服务。

启动后,客户端可通过dcgmi dmon等工具连接主机5555端口,实时流式获取GPU遥测数据。

场景2:监测GPU健康状态

监测GPU健康状态无需额外权限,可非特权运行容器:

bash
docker run --gpus all \
   -p 5555:5555 \
   nvidia/dcgm:3.3.7-1-ubuntu22.04

客户端可通过连接容器访问DCGM健康监测API(详见DCGM健康监测文档),获取GPU健康状态报告。

推荐阅读

如需更多关于DCGM的信息和文档,请访问产品页面:[***]

许可协议

拉取并使用本容器即表示您接受最终用户许可协议的条款与条件。

查看更多 dcgm 相关镜像 →
nvidia/k8s-device-plugin logo
nvidia/k8s-device-plugin
NVIDIA K8s设备插件镜像,用于在Kubernetes集群中部署设备插件,实现对NVIDIA GPU资源的管理与调度。
34100M+ pulls
上次更新:未知
nvidia/dcgm-exporter logo
nvidia/dcgm-exporter
用于Prometheus的NVIDIA GPU指标导出器
2450M+ pulls
上次更新:未知
nvidia/cuda logo
nvidia/cuda
英伟达在GitLab仓库(gitlab.com/nvidia/cuda)提供的CUDA(并行计算平台)和cuDNN(深度神经网络加速库)镜像,为开发者提供了预配置的开发环境,支持高效进行并行计算应用开发、深度学习模型训练及推理任务,确保了环境的一致性和部署的便捷性,是构建基于英伟达GPU加速应用的重要资源。
1949100M+ pulls
上次更新:未知
nvidia/driver logo
nvidia/driver
NVIDIA官方驱动程序镜像,用于在容器环境中提供GPU驱动支持。
255M+ pulls
上次更新:未知
nvidia/opengl logo
nvidia/opengl
NVIDIA提供的OpenGL镜像,基于libglvnd,支持OpenGL应用运行与开发,需nvidia-docker 2.0,GPU隔离要求驱动390+,不正式支持显示系统(X11、Wayland)。
46500K+ pulls
上次更新:未知
nvidia/gpu-feature-discovery logo
nvidia/gpu-feature-discovery
NVIDIA GPU特性发现工具镜像,用于识别和暴露GPU设备特性,自v0.6.0版本起需从NGC目录(nvcr.io/nvidia/gpu-feature-discovery)获取,原Docker Hub镜像不再更新。
1100K+ pulls
上次更新:未知

轩辕镜像配置手册

探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式

登录仓库拉取

通过 Docker 登录认证访问私有仓库

Linux

在 Linux 系统配置镜像服务

Windows/Mac

在 Docker Desktop 配置镜像

Docker Compose

Docker Compose 项目配置

K8s Containerd

Kubernetes 集群配置 Containerd

K3s

K3s 轻量级 Kubernetes 镜像加速

Dev Containers

VS Code Dev Containers 配置

MacOS OrbStack

MacOS OrbStack 容器配置

宝塔面板

在宝塔面板一键配置镜像

群晖

Synology 群晖 NAS 配置

飞牛

飞牛 fnOS 系统配置镜像

极空间

极空间 NAS 系统配置服务

爱快路由

爱快 iKuai 路由系统配置

绿联

绿联 NAS 系统配置镜像

威联通

QNAP 威联通 NAS 配置

Podman

Podman 容器引擎配置

Singularity/Apptainer

HPC 科学计算容器配置

其他仓库配置

ghcr、Quay、nvcr 等镜像仓库

专属域名拉取

无需登录使用专属域名

需要其他帮助?请查看我们的 常见问题Docker 镜像访问常见问题解答 或 提交工单

镜像拉取常见问题

轩辕镜像免费版与专业版有什么区别?

免费版仅支持 Docker Hub 访问,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。

轩辕镜像支持哪些镜像仓库?

专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等;免费版仅支持 docker.io。

流量耗尽错误提示

当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。

410 错误问题

通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。

manifest unknown 错误

先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。

镜像拉取成功后,如何去掉轩辕镜像域名前缀?

使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。

查看全部问题→

用户好评

来自真实用户的反馈,见证轩辕镜像的优质服务

用户头像

oldzhang

运维工程师

Linux服务器

5

"Docker访问体验非常流畅,大镜像也能快速完成下载。"

轩辕镜像
镜像详情
...
nvidia/dcgm
官方博客Docker 镜像使用技巧与技术博客
热门镜像查看热门 Docker 镜像推荐
一键安装一键安装 Docker 并配置镜像源
咨询镜像拉取问题请 提交工单,官方技术交流群:1072982923
轩辕镜像面向开发者与科研用户,提供开源镜像的搜索和访问支持。所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
咨询镜像拉取问题请提交工单,官方技术交流群:
轩辕镜像面向开发者与科研用户,提供开源镜像的搜索和访问支持。所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
官方邮箱:点击复制邮箱
©2024-2026 源码跳动
官方邮箱:点击复制邮箱Copyright © 2024-2026 杭州源码跳动科技有限公司. All rights reserved.