轩辕镜像
轩辕镜像专业版
个人中心搜索镜像
交易
充值流量我的订单
工具
工单支持镜像收录Run 助手IP 归属地密码生成Npm 源Pip 源
帮助
常见问题我要吐槽
其他
关于我们网站地图

官方QQ群: 13763429

轩辕镜像
镜像详情
modular/max-nvidia-full
官方博客使用教程热门镜像工单支持
本站面向开发者与科研用户,提供开源镜像的搜索和下载加速服务。
所有镜像均来源于原始开源仓库,本站不存储、不修改、不传播任何镜像内容。
轩辕镜像 - 国内开发者首选的专业 Docker 镜像下载加速服务平台 - 官方QQ群:13763429 👈点击免费获得技术支持。
本站面向开发者与科研用户,提供开源镜像的搜索和下载加速服务。所有镜像均来源于原始开源仓库,本站不存储、不修改、不传播任何镜像内容。

本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com

max-nvidia-full Docker 镜像下载 - 轩辕镜像

max-nvidia-full 镜像详细信息和使用指南

max-nvidia-full 镜像标签列表和版本信息

max-nvidia-full 镜像拉取命令和加速下载

max-nvidia-full 镜像使用说明和配置指南

Docker 镜像加速服务 - 轩辕镜像平台

国内开发者首选的 Docker 镜像加速平台

极速拉取 Docker 镜像服务

相关 Docker 镜像推荐

热门 Docker 镜像下载

max-nvidia-full
modular/max-nvidia-full

max-nvidia-full 镜像详细信息

max-nvidia-full 镜像标签列表

max-nvidia-full 镜像使用说明

max-nvidia-full 镜像拉取命令

Docker 镜像加速服务

轩辕镜像平台优势

镜像下载指南

相关 Docker 镜像推荐

包含CUDA、PyTorch、cuDNN的完整MAX栈,适用于生产就绪的NVIDIA生成式AI部署。
2 收藏0 次下载activemodular镜像
🚀轩辕镜像专业版更稳定💎一键安装 Docker 配置镜像源
中文简介版本下载
🚀轩辕镜像专业版更稳定💎一键安装 Docker 配置镜像源

max-nvidia-full 镜像详细说明

max-nvidia-full 使用指南

max-nvidia-full 配置说明

max-nvidia-full 官方文档

MAX 完整容器 (max-nvidia-full)

镜像概述和主要用途

Modular Accelerated eXecution (MAX) 提供了一个高性能、灵活的AI工作负载平台,利用现代GPU提供加速的生成式AI性能,同时保持在不同硬件配置和云提供商之间的可移植性。

max-nvidia-full 容器包含在GPU上高效运行大型AI模型所需的所有依赖项。它提供了一个完整的环境,支持PyTorch (GPU)、CUDA和cuDNN,确保深度学***工作负载的最佳性能。该容器非常适合需要完全优化、开箱即用的AI模型部署解决方案的用户。

MAX容器兼容OpenAI API规范,并针对GPU部署进行了优化。有关容器内容和实例兼容性的更多信息,请参阅MAX文档中的MAX容器部分。

核心功能和特性

  • 完整的MAX堆栈,包含CUDA、PyTorch和cuDNN
  • 针对GPU优化的AI模型执行环境
  • 兼容OpenAI API规范
  • 支持Hugging Face模型生态系统
  • 内置HF_HUB传输加速
  • 生产级别的稳定性和性能优化
  • 支持多种大型语言模型(LLM)部署

使用场景和适用范围

  • 高性能GPU上的大型语言模型部署
  • 需要兼容OpenAI API的AI服务构建
  • 快速原型验证和生产环境部署
  • Hugging Face模型的高效运行
  • AI应用程序的开发和测试环境

详细使用方法和配置说明

快速启动

使用以下命令在GPU上运行LLM:

docker run \
  --gpus 1 \
  -v ~/.cache/huggingface:/root/.cache/huggingface \
  --env "HF_HUB_ENABLE_HF_TRANSFER=1" \
  --env "HF_TOKEN=<secret>" \
  -p 8000:8000 \
  modular/max-nvidia-full:<version> \
  --model-path <model-provider/model-id>

参数说明:

  • --gpus 1: 指定使用1个GPU设备
  • -v ~/.cache/huggingface:/root/.cache/huggingface: 挂载Hugging Face缓存目录,避免重复下载模型
  • --env "HF_HUB_ENABLE_HF_TRANSFER=1": 启用HF传输加速
  • --env "HF_TOKEN=<secret>": 设置Hugging Face访问令牌(用于私有模型)
  • -p 8000:8000: 将容器的8000端口映射到主机的8000端口
  • modular/max-nvidia-full:<version>: 指定MAX容器镜像及版本
  • --model-path <model-provider/model-id>: 指定要加载的模型路径

使用示例:

运行MAX优化模型:

docker run \
  --gpus 1 \
  -v ~/.cache/huggingface:/root/.cache/huggingface \
  --env "HF_HUB_ENABLE_HF_TRANSFER=1" \
  --env "HF_TOKEN=your_token_here" \
  -p 8000:8000 \
  modular/max-nvidia-full:latest \
  --model-path modularai/Llama-3.1-8B-Instruct-GGUF

运行其他Hugging Face模型:

docker run \
  --gpus 1 \
  -v ~/.cache/huggingface:/root/.cache/huggingface \
  --env "HF_HUB_ENABLE_HF_TRANSFER=1" \
  -p 8000:8000 \
  modular/max-nvidia-full:latest \
  --model-path Qwen/Qwen2.5-1.5B-Instruct

有关使用MAX快速部署流行模型的更多信息,请参见MAX Builds。

Docker Compose配置示例

创建docker-compose.yml文件:

version: '3.8'

services:
  max-nvidia-full:
    image: modular/max-nvidia-full:latest
    deploy:
      resources:
        reservations:
          devices:
            - driver: nvidia
              count: 1
              capabilities: [gpu]
    volumes:
      - ~/.cache/huggingface:/root/.cache/huggingface
    environment:
      - HF_HUB_ENABLE_HF_TRANSFER=1
      - HF_TOKEN=your_token_here
    ports:
      - "8000:8000"
    command: --model-path modularai/Llama-3.1-8B-Instruct-GGUF

使用以下命令启动服务:

docker-compose up

镜像标签

支持的标签会更新到最新的MAX版本,包括最新的稳定版本和更多实验性的夜间版本。latest标签提供最新的稳定版本,nightly标签提供最新的夜间版本。

稳定版本

  • max-nvidia-full:25.X

夜间版本

  • max-nvidia-full:25.X.0.devYYYYMMDD

环境变量配置

环境变量描述示例
HF_HUB_ENABLE_HF_TRANSFER启用HF传输加速1
HF_TOKENHugging Face访问令牌your_token_here

参考文档

  • Modular官方文档
  • MAX容器文档
  • MAX Builds
  • MAX优化模型

社区资源

  • 订阅新闻通讯
  • 社区论坛
  • 讨论论坛

如果有兴趣成为设计合作伙伴,以获得早期访问权限并提供反馈,请联系我们。

许可证

此容器根据NVIDIA深度学***容器许可证发布。

查看更多 max-nvidia-full 相关镜像 →
paketobuildpacks/build-jammy-full logo
paketobuildpacks/build-jammy-full
by Linux Foundation
暂无描述
10M+ pulls
上次更新:9 天前
paketobuildpacks/run-jammy-full logo
paketobuildpacks/run-jammy-full
by Linux Foundation
暂无描述
5M+ pulls
上次更新:9 天前
mirantis/ucp-nvidia-device-plugin logo
mirantis/ucp-nvidia-device-plugin
by Mirantis Inc
认证
暂无描述
1M+ pulls
上次更新:1 个月前
modular/max-nvidia-base logo
modular/max-nvidia-base
by Modular
认证
轻量级MAX核心组件镜像,具备下载更快、依赖更少的特点,需配合NVIDIA驱动使用。
10K+ pulls
上次更新:6 小时前
docker/ucp-nvidia-device-plugin logo
docker/ucp-nvidia-device-plugin
by Docker, Inc.
认证
暂无描述
100K+ pulls
上次更新:5 年前

常见问题

轩辕镜像免费版与专业版有什么区别?

免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。

轩辕镜像免费版与专业版有分别支持哪些镜像?

免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。

流量耗尽错误提示

当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。

410 错误问题

通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。

manifest unknown 错误

先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。

镜像拉取成功后,如何去掉轩辕镜像域名前缀?

使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。

查看全部问题→

轩辕镜像下载加速使用手册

探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式

🔐

登录方式进行 Docker 镜像下载加速教程

通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤

🐧

Linux Docker 镜像下载加速教程

在 Linux 系统上配置轩辕镜像源,支持主流发行版

🖥️

Windows/Mac Docker 镜像下载加速教程

在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统

📦

Docker Compose 镜像下载加速教程

在 Docker Compose 中使用轩辕镜像加速,支持容器编排

📋

K8s containerd 镜像下载加速教程

在 k8s 中配置 containerd 使用轩辕镜像加速

🔧

宝塔面板 Docker 镜像下载加速教程

在宝塔面板中配置轩辕镜像加速,提升服务器管理效率

💾

群晖 NAS Docker 镜像下载加速教程

在 Synology 群晖NAS系统中配置轩辕镜像加速

🐂

飞牛fnOS Docker 镜像下载加速教程

在飞牛fnOS系统中配置轩辕镜像加速

📱

极空间 NAS Docker 镜像下载加速教程

在极空间NAS中配置轩辕镜像加速

⚡

爱快路由 ikuai Docker 镜像下载加速教程

在爱快ikuai系统中配置轩辕镜像加速

🔗

绿联 NAS Docker 镜像下载加速教程

在绿联NAS系统中配置轩辕镜像加速

🌐

威联通 NAS Docker 镜像下载加速教程

在威联通NAS系统中配置轩辕镜像加速

📦

Podman Docker 镜像下载加速教程

在 Podman 中配置轩辕镜像加速,支持多系统

📚

ghcr、Quay、nvcr、k8s、gcr 等仓库下载镜像加速教程

配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤

🚀

专属域名方式进行 Docker 镜像下载加速教程

无需登录即可使用轩辕镜像加速服务,更加便捷高效

需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429

商务:17300950906
|©2024-2025 源码跳动
商务合作电话:17300950906|Copyright © 2024-2025 杭州源码跳动科技有限公司. All rights reserved.