本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com
Modular Accelerated eXecution (MAX) 提供了一个高性能、灵活的AI工作负载平台,利用现代GPU提供加速的生成式AI性能,同时保持在不同硬件配置和云提供商之间的可移植性。
max-nvidia-full 容器包含在GPU上高效运行大型AI模型所需的所有依赖项。它提供了一个完整的环境,支持PyTorch (GPU)、CUDA和cuDNN,确保深度学***工作负载的最佳性能。该容器非常适合需要完全优化、开箱即用的AI模型部署解决方案的用户。
MAX容器兼容OpenAI API规范,并针对GPU部署进行了优化。有关容器内容和实例兼容性的更多信息,请参阅MAX文档中的MAX容器部分。
使用以下命令在GPU上运行LLM:
docker run \ --gpus 1 \ -v ~/.cache/huggingface:/root/.cache/huggingface \ --env "HF_HUB_ENABLE_HF_TRANSFER=1" \ --env "HF_TOKEN=<secret>" \ -p 8000:8000 \ modular/max-nvidia-full:<version> \ --model-path <model-provider/model-id>
--gpus 1: 指定使用1个GPU设备-v ~/.cache/huggingface:/root/.cache/huggingface: 挂载Hugging Face缓存目录,避免重复下载模型--env "HF_HUB_ENABLE_HF_TRANSFER=1": 启用HF传输加速--env "HF_TOKEN=<secret>": 设置Hugging Face访问令牌(用于私有模型)-p 8000:8000: 将容器的8000端口映射到主机的8000端口modular/max-nvidia-full:<version>: 指定MAX容器镜像及版本--model-path <model-provider/model-id>: 指定要加载的模型路径运行MAX优化模型:
docker run \ --gpus 1 \ -v ~/.cache/huggingface:/root/.cache/huggingface \ --env "HF_HUB_ENABLE_HF_TRANSFER=1" \ --env "HF_TOKEN=your_token_here" \ -p 8000:8000 \ modular/max-nvidia-full:latest \ --model-path modularai/Llama-3.1-8B-Instruct-GGUF
运行其他Hugging Face模型:
docker run \ --gpus 1 \ -v ~/.cache/huggingface:/root/.cache/huggingface \ --env "HF_HUB_ENABLE_HF_TRANSFER=1" \ -p 8000:8000 \ modular/max-nvidia-full:latest \ --model-path Qwen/Qwen2.5-1.5B-Instruct
有关使用MAX快速部署流行模型的更多信息,请参见MAX Builds。
创建docker-compose.yml文件:
version: '3.8' services: max-nvidia-full: image: modular/max-nvidia-full:latest deploy: resources: reservations: devices: - driver: nvidia count: 1 capabilities: [gpu] volumes: - ~/.cache/huggingface:/root/.cache/huggingface environment: - HF_HUB_ENABLE_HF_TRANSFER=1 - HF_TOKEN=your_token_here ports: - "8000:8000" command: --model-path modularai/Llama-3.1-8B-Instruct-GGUF
使用以下命令启动服务:
docker-compose up
支持的标签会更新到最新的MAX版本,包括最新的稳定版本和更多实验性的夜间版本。latest标签提供最新的稳定版本,nightly标签提供最新的夜间版本。
| 环境变量 | 描述 | 示例 |
|---|---|---|
| HF_HUB_ENABLE_HF_TRANSFER | 启用HF传输加速 | 1 |
| HF_TOKEN | Hugging Face访问令牌 | your_token_here |
如果有兴趣成为设计合作伙伴,以获得早期访问权限并提供反馈,请联系我们。
此容器根据NVIDIA深度学***容器许可证发布。

免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。
免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。
当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。
通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。
先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。
使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤
在 Linux 系统上配置轩辕镜像源,支持主流发行版
在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统
在 Docker Compose 中使用轩辕镜像加速,支持容器编排
在 k8s 中配置 containerd 使用轩辕镜像加速
在宝塔面板中配置轩辕镜像加速,提升服务器管理效率
在 Synology 群晖NAS系统中配置轩辕镜像加速
在飞牛fnOS系统中配置轩辕镜像加速
在极空间NAS中配置轩辕镜像加速
在爱快ikuai系统中配置轩辕镜像加速
在绿联NAS系统中配置轩辕镜像加速
在威联通NAS系统中配置轩辕镜像加速
在 Podman 中配置轩辕镜像加速,支持多系统
配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤
无需登录即可使用轩辕镜像加速服务,更加便捷高效
需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429