专属域名
文档搜索
轩辕助手
Run助手
邀请有礼
返回顶部
快速返回页面顶部
收起
收起工具栏
轩辕镜像 官方专业版
轩辕镜像 官方专业版轩辕镜像 官方专业版官方专业版
首页个人中心搜索镜像

交易
充值流量我的订单
工具
提交工单镜像收录一键安装
Npm 源Pip 源Homebrew 源
帮助
常见问题
其他
关于我们网站地图

官方QQ群: 1072982923

NVIDIA 官方容器镜像 logo

NVIDIA 官方容器镜像

NVIDIA 官方在 Docker Hub 发布的容器镜像集合,涵盖 CUDA 运行时与开发环境、Kubernetes GPU 设备插件、数据中心 GPU 监控(DCGM)等,适合在宿主机已安装 NVIDIA 驱动的环境下构建与运行 GPU 加速应用。 https://www.nvidia.com

NVIDIA 在 Docker Hub 以 nvidia 组织发布官方容器镜像,与 [NVIDIA NGC](https://catalog.ngc.nvidia.com)(nvcr.io)形成互补:Docker Hub 侧重通用基础镜像与开源组件,NGC 侧重企业级 AI/HPC 套件与版本化发布。 本仓库常见镜像包括:nvidia/cuda、nvidia/cudagl 提供 CUDA 工具链与可选 OpenGL 支持,用于构建和运行 GPU 计算与图形应用;nvidia/k8s-device-plugin 为 Kubernetes 提供 GPU 设备插件,使 Pod 可声明并占用 GPU 资源;nvidia/dcgm、nvidia/dcgm-exporter 提供数据中心 GPU 监控与指标导出(如对接 Prometheus);nvidia/gpu-operator 用于在 K8s 中自动化部署驱动、设备插件与监控组件。使用前需在宿主机安装 NVIDIA 驱动并配置 NVIDIA Container Toolkit,容器内无需再装驱动。

特色镜像推荐

NVIDIA CUDA

NVIDIA 官方 CUDA 基础镜像,提供 CUDA 工具链、运行时与开发环境,支持 base/runtime/devel 等标签变体,用于构建与运行 GPU 加速计算应用。宿主机需已安装 NVIDIA 驱动并配置 NVIDIA Container Toolkit。

GPU 计算AI 训练与推理科学计算自定义 CUDA 应用

NVIDIA CUDA OpenGL

在 CUDA 镜像基础上增加 OpenGL(libglvnd)支持,适用于同时需要 GPU 计算与图形渲染的应用,如可视化、仿真、桌面图形工作负载。

CUDA + 图形渲染可视化与仿真桌面 GPU 应用

NVIDIA K8s Device Plugin

Kubernetes 官方 GPU 设备插件,使集群可发现并分配 GPU 给 Pod。部署后可在 Pod 中声明 resources.limits.nvidia.com/gpu 使用 GPU。需配合宿主机驱动与 NVIDIA Container Toolkit。

Kubernetes GPU 调度GPU 资源隔离多租户 GPU 集群

NVIDIA DCGM

Data Center GPU Manager,提供 GPU 健康监控、性能指标、诊断与功耗/时钟策略。常用于集群内 GPU 可观测性,端口 5555 暴露 nv-hostengine 服务。

GPU 监控健康诊断性能指标采集

NVIDIA DCGM Exporter

将 DCGM 指标以 Prometheus 格式导出,便于与 Prometheus、Grafana 等监控栈集成,用于 GPU 使用率、显存、温度等指标采集与告警。

Prometheus 指标Grafana 大盘GPU 监控告警

NVIDIA 官方容器镜像集合

cuda logo
cuda
NVIDIA 官方容器镜像
英伟达在GitLab仓库(gitlab.com/nvidia/cuda)提供的CUDA(并行计算平台)和cuDNN(深度神经网络加速库)镜像,为开发者提供了预配置的开发环境,支持高效进行并行计算应用开发、深度学习模型训练及推理任务,确保了环境的一致性和部署的便捷性,是构建基于英伟达GPU加速应用的重要资源。
2.0千 次收藏103129573 次下载
--更新
caffe logo
caffe
NVIDIA 官方容器镜像
已弃用,请使用NGC(https://www.nvidia.com/en-us/gpu-cloud/)上的Caffe镜像
41 次收藏41671 次下载
--更新
digits logo
digits
NVIDIA 官方容器镜像
此Docker镜像已弃用,请使用NVIDIA GPU Cloud (NGC) 提供的DIGITS镜像。
71 次收藏823628 次下载
--更新
cuda-ppc64le logo
cuda-ppc64le
NVIDIA 官方容器镜像
NVIDIA CUDA Docker镜像提供CUDA和cuDNN的分发,支持GPU加速计算应用开发,现不再支持,详情参见https://gitlab.com/nvidia/container-images/cuda/-/blob/master/README.md。
19 次收藏72893 次下载
--更新
k8s-device-plugin logo
k8s-device-plugin
NVIDIA 官方容器镜像
NVIDIA K8s设备插件镜像,用于在Kubernetes集群中部署设备插件,实现对NVIDIA GPU资源的管理与调度。
34 次收藏129549102 次下载
--更新
opencl logo
opencl
NVIDIA 官方容器镜像
NVIDIA OpenCL官方Docker镜像,提供基于Ubuntu 14.04/16.04/18.04及CentOS 7的运行时(runtime)和开发(devel)环境,需配合nvidia-docker 2.0使用,适用于OpenCL应用的运行与开发。
23 次收藏148961 次下载
--更新
opengl logo
opengl
NVIDIA 官方容器镜像
NVIDIA提供的OpenGL镜像,基于libglvnd,支持OpenGL应用运行与开发,需nvidia-docker 2.0,GPU隔离要求驱动390+,不正式支持显示系统(X11、Wayland)。
47 次收藏832337 次下载
--更新
cudagl logo
cudagl
NVIDIA 官方容器镜像
NVIDIA官方提供的集成CUDA与OpenGL的Docker镜像,用于支持需要GPU加速的图形计算任务。
54 次收藏775642 次下载
--更新
dcgm-exporter logo
dcgm-exporter
NVIDIA 官方容器镜像
用于Prometheus的NVIDIA GPU指标导出器
25 次收藏90018617 次下载
--更新
k8s-device-plugin-amd64 logo
k8s-device-plugin-amd64
NVIDIA 官方容器镜像
此仓库已弃用,原NVIDIA k8s-device-plugin的x86_64镜像相关多架构清单现维护于https://hub.docker.com/repository/docker/nvidia/k8s-device-plugin
70050 次下载
--更新
k8s-device-plugin-ppc64le logo
k8s-device-plugin-ppc64le
NVIDIA 官方容器镜像
该Docker镜像仓库已弃用,原用于提供ppc64le架构的NVIDIA Kubernetes设备插件镜像,多架构清单现维护于https://hub.docker.com/repository/docker/nvidia/k8s-device-plugin。
10102 次下载
--更新
video-codec-sdk logo
video-codec-sdk
NVIDIA 官方容器镜像
NVIDIA Video Codec SDK提供Windows和Linux平台上硬件加速视频编解码的API与工具,其Dockerfiles可在Gitlab获取,供用户下载SDK后自行构建镜像。
2 次收藏3072 次下载
--更新
driver logo
driver
NVIDIA 官方容器镜像
NVIDIA官方驱动程序镜像,用于在容器环境中提供GPU驱动支持。
26 次收藏5857211 次下载
--更新
mps logo
mps
NVIDIA 官方容器镜像
NVIDIA Multi-Process Service (MPS) 镜像,用于在GPU上实现多进程共享资源,减少上下文切换开销,提高GPU利用率,支持多进程并发执行CUDA任务。
1 次收藏344186 次下载
--更新
pod-devices-exporter logo
pod-devices-exporter
NVIDIA 官方容器镜像
暂无描述
1 次收藏1392804 次下载
--更新
第 1 页 / 共 3 页

推荐技术栈

CUDA 与运行时

nvidia/cudanvidia/cuda-arm64nvidia/cudagl

Kubernetes GPU

nvidia/k8s-device-pluginnvidia/gpu-operatornvidia/gpu-operator-validator

监控与诊断

nvidia/dcgmnvidia/dcgm-exporter

宿主机依赖

NVIDIA 驱动NVIDIA Container ToolkitDocker/containerd

典型使用场景

GPU 训练与推理

基于 nvidia/cuda 或 nvidia/cudagl 构建并运行 AI 训练、推理或科学计算容器,宿主机提供驱动与 Container Toolkit。

nvidia/cudanvidia/cudaglNVIDIA Container Toolkit

Kubernetes 中暴露 GPU

在 K8s 集群中部署 nvidia/k8s-device-plugin,使 Pod 可声明 GPU 资源;需要监控时部署 nvidia/dcgm 与 nvidia/dcgm-exporter。

nvidia/k8s-device-pluginnvidia/dcgmnvidia/dcgm-exporter

GPU 可观测与运维

使用 DCGM 与 DCGM Exporter 采集 GPU 指标,接入现有监控与告警体系。

nvidia/dcgmnvidia/dcgm-exporterPrometheusGrafana

相关文章推荐

VLLM Docker 容器化部署指南:在 NVIDIA Jetson 平台高效运行大语言模型推理服务

VLLM是一个高效的开源大语言模型(LLM)推理服务框架,通过创新的PagedAttention技术实现高吞吐量和低延迟的推理性能。本文介绍的`dustynv/vllm`镜像是针对NVIDIA Jetson平台优化的容器化版本,由[dustynv/jetson-containers](https://github.com/dustynv/jetson-containers)项目构建,专为边缘计算场景设计,支持在资源受限的嵌入式设备上部署高性能LLM推理服务。

Docker,VLLM2025年12月2日

NVIDIA CUDA 镜像 Docker 容器化部署全流程

CPU 像“全能但慢的多面手”,适合处理逻辑复杂但数据量小的任务;GPU 像“成千上万的小工人”,擅长同时处理大量重复、简单的计算。CUDA 就是连接开发者与 GPU 能力的“桥梁”,让 GPU 能脱离显卡驱动,直接为科学计算、AI 训练、数据处理等任务服务。

Docker,CUDA2025年10月10日

常见问题 (FAQ)

Q1:nvidia/cuda 和 nvidia/cudagl 有什么区别?

nvidia/cuda 提供纯 CUDA 计算环境(工具链与运行时),适合只做 GPU 计算的场景(如训练、推理、科学计算)。nvidia/cudagl 在 CUDA 基础上增加 OpenGL 支持(libglvnd),适合同时需要 GPU 计算与图形渲染的应用(如可视化、仿真、带界面的图形应用)。两者都有 base、runtime、devel 等标签变体,按需选择镜像大小与是否含编译工具。

Q2:在 Kubernetes 中如何让 Pod 使用 GPU?需要哪些 NVIDIA 镜像?

步骤大致为:1) 节点安装 NVIDIA 驱动与 NVIDIA Container Toolkit;2) 部署 nvidia/k8s-device-plugin(DaemonSet),使 Kubelet 能发现 GPU;3) 在 Pod 中声明 resources.limits["nvidia.com/gpu"] = 1(或更多)。无需在业务镜像里再装驱动,运行时由宿主机与 Container Toolkit 提供。若需在 K8s 中一键部署驱动、设备插件与监控,可考虑 nvidia/gpu-operator。

Q3:如何监控集群中 GPU 使用情况?dcgm 和 dcgm-exporter 怎么用?

nvidia/dcgm 提供 Data Center GPU Manager,可采集 GPU 健康、利用率、显存、温度等指标,默认在端口 5555 暴露 nv-hostengine。nvidia/dcgm-exporter 将 DCGM 指标以 Prometheus 格式暴露,便于被 Prometheus 抓取并在 Grafana 中做大盘与告警。典型用法:在集群中部署 dcgm 与 dcgm-exporter(如 DaemonSet 或与 GPU 节点伴生),在 Prometheus 中配置 scrape 目标为 dcgm-exporter 的 metrics 端口。

Q4:宿主机已装 NVIDIA 驱动,容器里还需要装驱动吗?nvidia/driver 镜像做什么用?

一般不需要。在宿主机安装 NVIDIA 驱动并配置 NVIDIA Container Toolkit 后,运行 nvidia/cuda 等镜像时,容器会通过卷挂载与驱动接口使用宿主机驱动,无需在镜像内再装驱动。nvidia/driver 镜像是将驱动打包进容器的特殊形态,常用于无根安装、特定编排或隔离需求,多数场景下直接用宿主机驱动 + CUDA 镜像即可。

Q5:Docker Hub 的 nvidia 镜像和 NGC (nvcr.io) 上的镜像有什么关系?该用哪个?

Docker Hub 的 nvidia/* 侧重通用基础镜像(如 cuda、cudagl、k8s-device-plugin、dcgm)和开源组件,版本标签与社区文档与 Docker Hub 一致。NGC (nvcr.io/nvidia/*) 是 NVIDIA 的企业级目录,提供更多版本化 AI/HPC 套件、安全更新与支持策略;部分组件(如 k8s-device-plugin 新版本)仅在 NGC 发布。选择建议:基础 CUDA 与 K8s 设备插件可从 Docker Hub 使用;若需要 NGC 独有镜像、固定版本或企业支持,则用 NGC。

轩辕镜像
NVIDIA 官方容器镜像
官方博客Docker 镜像使用技巧与技术博客
热门镜像查看热门 Docker 镜像推荐
一键安装一键安装 Docker 并配置镜像源
镜像拉取问题咨询请 提交工单,官方技术交流群:1072982923
轩辕镜像面向开发者与科研用户,提供开源镜像的搜索和访问支持。所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
镜像拉取问题咨询请提交工单,官方技术交流群:
轩辕镜像面向开发者与科研用户,提供开源镜像的搜索和访问支持。所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
官方邮箱:点击复制邮箱
©2024-2026 源码跳动
官方邮箱:点击复制邮箱Copyright © 2024-2026 杭州源码跳动科技有限公司. All rights reserved.