modular/max-nvidia-baseModular Accelerated eXecution (MAX) 提供高性能、灵活的AI工作负载平台,利用现代GPU加速生成式AI性能,同时保持跨不同硬件配置和云提供商的可移植性。
max-nvidia-base 作为MAX基础容器,提供轻量级环境,专为AI模型部署优化,具备最小依赖特性。包含CUDA和PyTorch (CPU) 等核心组件,省略cuDNN等重型框架,适合需要精简解决方案、更快下载速度和更小资源占用的用户。需配合NVIDIA驱动使用。
通过以下命令在GPU上运行LLM模型:
dockerdocker run --gpus 1 \ -v ~/.cache/huggingface:/root/.cache/huggingface \ --env "HF_HUB_ENABLE_HF_TRANSFER=1" \ --env "HF_TOKEN=<secret>" \ -p 8000:8000 \ modular/max-nvidia-base:<version> \ --model-path <model-provider/model-id>
--gpus 1:启用1个GPU设备-v ~/.cache/huggingface:/root/.cache/huggingface:挂载Hugging Face缓存目录,避免重复下载--env "HF_HUB_ENABLE_HF_TRANSFER=1":启用HF Transfer加速模型下载--env "HF_TOKEN=<secret>":设置Hugging Face访问令牌(私有模型需提供)-p 8000:8000:端口映射,将容器8000端口映射到主机8000端口modular/max-nvidia-base:<version>:指定容器镜像及版本标签--model-path <model-provider/model-id>:指定模型路径(Hugging Face模型ID)| 环境变量 | 说明 |
|---|---|
HF_HUB_ENABLE_HF_TRANSFER | 设置为1启用HF Transfer加速模型下载 |
HF_TOKEN | Hugging Face访问令牌,私有模型访问需配置 |
可直接使用MAX优化模型的Hugging Face ID,例如:
dockerdocker run --gpus 1 \ -v ~/.cache/huggingface:/root/.cache/huggingface \ --env "HF_HUB_ENABLE_HF_TRANSFER=1" \ --env "HF_TOKEN=<你的HF令牌>" \ -p 8000:8000 \ modular/max-nvidia-base:latest \ --model-path modularai/Llama-3.1-8B-Instruct-GGUF
max-nvidia-base:25.X:最新稳定版本,遵循语义化版本控制max-nvidia-base:25.X.0.devYYYYMMDD:每日构建的实验性版本,YYYYMMDD为构建日期latest:指向最新稳定版本nightly:指向最新夜间构建版本本容器根据NVIDIA深度学习容器许可协议发布。





manifest unknown 错误
TLS 证书验证失败
DNS 解析超时
410 错误:版本过低
402 错误:流量耗尽
身份认证失败错误
429 限流错误
凭证保存错误
来自真实用户的反馈,见证轩辕镜像的优质服务