本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com

nvidia_gpu_exporter是一款专为Prometheus设计的Nvidia GPU指标导出工具,通过调用系统原生的nvidia-smi二进制程序采集GPU硬件信息及性能数据,并将指标以Prometheus可抓取的格式暴露,支持集成到监控系统中实现对GPU运行状态的实时监控与分析。
nvidia-smi获取GPU核心数据,包括但不限于GPU利用率、显存使用率、温度、功耗、风扇转速等关键指标,确保数据准确性和完整性。适用于需对Nvidia GPU进行性能监控的场景,包括:
nvidia-smi工具(通常随驱动一同安装,默认路径为/usr/bin/nvidia-smi)。nvidia-smi二进制文件。docker run -d \ --name nvidia-gpu-exporter \ -p 9835:9835 \ # 默认暴露端口(具体端口以项目最新配置为准) -v /usr/bin/nvidia-smi:/usr/bin/nvidia-smi \ # 挂载主机nvidia-smi工具 --restart unless-stopped \ utkuozdemir/nvidia_gpu_exporter # 镜像名称(以实际仓库为准)
容器启动后,可通过http://<容器IP>:9835/metrics访问导出的GPU指标,例如:
nvidia_gpu_utilization{index="0",name="Tesla V100"} 85 nvidia_gpu_memory_used_bytes{index="0",name="Tesla V100"} 12884901888 nvidia_gpu_temperature_celsius{index="0",name="Tesla V100"} 72
在Prometheus配置文件中添加如下抓取规则:
scrape_configs: - job_name: 'nvidia_gpu' static_configs: - targets: ['<容器IP>:9835'] # 替换为实际容器IP和端口
更多配置参数(如自定义端口、指标过滤、超时设置等)及高级用法,请参考项目官方文档:nvidia_gpu_exporter GitHub仓库
免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。
免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。
当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。
通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。
先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。
使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤
在 Linux 系统上配置轩辕镜像源,支持主流发行版
在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统
在 Docker Compose 中使用轩辕镜像加速,支持容器编排
在 k8s 中配置 containerd 使用轩辕镜像加速
在宝塔面板中配置轩辕镜像加速,提升服务器管理效率
在 Synology 群晖NAS系统中配置轩辕镜像加速
在飞牛fnOS系统中配置轩辕镜像加速
在极空间NAS中配置轩辕镜像加速
在爱快ikuai系统中配置轩辕镜像加速
在绿联NAS系统中配置轩辕镜像加速
在威联通NAS系统中配置轩辕镜像加速
在 Podman 中配置轩辕镜像加速,支持多系统
配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤
无需登录即可使用轩辕镜像加速服务,更加便捷高效
需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429