nvidia/cuda-ppc64le参见 [***]
CUDA 是NVIDIA开发的并行计算平台和编程模型,用于图形处理单元(GPU)上的通用计算。借助CUDA,开发人员可以利用GPU的能力显著加速计算应用。
NVIDIA的CUDA工具包提供了开发GPU加速应用所需的一切,包括GPU加速库、编译器、开发工具和CUDA运行时。
CUDA容器镜像为CUDA支持的平台和架构提供了易用的分发方式。
这些镜像受以下NVIDIA最终用户许可协议管辖。通过拉取和使用CUDA镜像,您接受这些许可的条款和条件。由于镜像可能包含根据GPL等开源许可授权的组件,这些组件的源代码存档于此处。
要查看NVIDIA深度学习容器许可,请点击此处
有关CUDA的更多信息,包括发行说明、编程模型、API和开发工具,请访问CUDA文档网站。
对于即将发布的CUDA工具包版本,nvidia/cuda-arm64和nvidia/cuda-ppc64le镜像名称的支持将被终止,转而使用NGC和Docker Hub上nvidia/cuda中的多架构容器镜像清单。
以下产品页面仍将存在,但不再受支持:
以下GitLab仓库将被归档:
此外,现有的cuda-arm64和cuda-ppc64le标签不会从Docker Hub或NGC中删除,并将在我们的文档中标记为不支持。
CUDA、CUDAGL和OPENGL镜像的"latest"标签已在NGC和Docker Hub上弃用。
删除latest标签后,以下使用场景将导致“manifest unknown”错误:
$ docker pull nvidia/cuda Error response from daemon: manifest for nvidia/cuda:latest not found: manifest unknown: manifest unknown
这不是bug。
提供三种类型的镜像:
base:包含CUDA运行时(cudart)runtime:基于base,包含CUDA数学库和NCCL。还提供包含cuDNN的runtime镜像。devel:基于runtime,包含头文件、用于构建CUDA镜像的开发工具。这些镜像特别适用于多阶段构建。镜像的Dockerfile是开源的,根据3条款BSD许可授权。有关更多信息,请参见下面的支持标签部分。
运行CUDA镜像需要Docker的NVIDIA Container Toolkit。
对于CUDA 10.0,建议使用nvidia-docker2(v2.1.0)或更高版本。还建议使用Docker 19.03。
阅读NVIDIA Container Toolkit常见问题,查看问题是否已被遇到过。
如果确定问题与NVIDIA运行时无关,请在CUDA容器镜像问题跟踪器报告问题。
支持的标签会更新到最新的CUDA和cuDNN版本。这些标签还会定期更新以修复CVE漏洞。
完整的支持标签列表,请点击此处。
访问OpenSource @ Nvidia获取CUDA基础镜像层中包含的包的GPL源码。
11.4.0-runtime-ubi8(11.4.0/ubi8-ppc64le/runtime/Dockerfile)11.4.0-devel-ubi8(11.4.0/ubi8-ppc64le/devel/Dockerfile)11.4.0-base-ubi8(11.4.0/ubi8-ppc64le/base/Dockerfile)警告:可能缺少镜像标签
NGC和Docker Hub上的centos7和8的Cuda镜像标签可能缺失。Centos上游镜像通常无法通过NVIDIA发布前所需的安全扫描。请查看[***]
11.4.0-runtime-centos8(11.4.0/centos8-ppc64le/runtime/Dockerfile)11.4.0-devel-centos8(11.4.0/centos8-ppc64le/devel/Dockerfile)11.4.0-base-centos8(11.4.0/centos8-ppc64le/base/Dockerfile)不再支持的标签列表可在此处找到。
本README位于CUDA容器镜像源码仓库的doc目录中。(历史记录)

manifest unknown 错误
TLS 证书验证失败
DNS 解析超时
410 错误:版本过低
402 错误:流量耗尽
身份认证失败错误
429 限流错误
凭证保存错误
来自真实用户的反馈,见证轩辕镜像的优质服务