vllm Docker 镜像下载 - 轩辕镜像
vllm 镜像详细信息和使用指南
vllm 镜像标签列表和版本信息
vllm 镜像拉取命令和加速下载
vllm 镜像使用说明和配置指南
Docker 镜像加速服务 - 轩辕镜像平台
国内开发者首选的 Docker 镜像加速平台
极速拉取 Docker 镜像服务
相关 Docker 镜像推荐
热门 Docker 镜像下载
vllm 镜像详细信息
vllm 镜像标签列表
vllm 镜像使用说明
vllm 镜像拉取命令
Docker 镜像加速服务
轩辕镜像平台优势
镜像下载指南
相关 Docker 镜像推荐
vllm 镜像详细说明
vllm 使用指南
vllm 配置说明
vllm 官方文档
ROCm优化的vLLM Docker容器(适用于AMD GPU)
一、概述
这是一套基于ROCm(AMD的开源GPU计算平台)优化的vLLM Docker容器,专为AMD GPU用户设计。vLLM是一款高效的大语言模型服务框架,通过该容器,用户可快速部署支持高并发、低延迟的大语言模型推理服务,无需手动配置ROCm环境或编译vLLM依赖,直接开箱即用。
二、核心特性
1. ROCm深度优化
- 针对AMD GPU架构(如MI250、MI300、Radeon Pro等型号)做了底层适配,充分利用GPU计算核心与显存带宽,提升模型推理效率。
- 内置兼容当前主流ROCm版本(如ROCm 5.7+),无需额外安装驱动或 runtime,容器内环境已预配置完成。
2. 继承vLLM核心优势
- 支持PagedAttention技术:通过高效的显存管理,减少模型加载时的内存占用,支持更大批次的并发请求。
- 兼容多模型格式:可直接加载Hugging Face格式、GPTQ/AWQ量化模型等,无需额外转换。
- 低延迟、高吞吐量:相比传统推理框架(如Transformers),相同硬件下吞吐量提升2-4倍,响应延迟降低30%以上。
三、适用场景
- 企业/开发者测试:快速搭建大语言模型本地测试环境,验证模型性能或应用逻辑。
- 中小规模服务部署:适合需要对外提供API服务的场景(如客服机器人、智能问答),单容器可支撑数百QPS的并发请求。
- AMD GPU硬件使用者:解决AMD GPU用户部署vLLM时的环境配置难题(如ROCm依赖冲突、编译失败等)。
四、使用步骤
1. 准备环境
- 确保本地已安装Docker(推荐20.10+版本),并启用GPU支持(安装nvidia-docker兼容工具,如
rocm-docker)。 - 确认AMD GPU支持ROCm(可通过
rocm-smi命令检查,或参考AMD***ROCm支持列表)。
2. 获取容器镜像
从Docker Hub或私有仓库拉取镜像(以Docker Hub为例):
bashdocker pull rocm/vllm:latest # 最新版,默认包含ROCm优化和vLLM稳定版
如需指定版本,可替换:latest为具体标签(如:v0.4.0-rocm5.7)。
3. 启动容器并部署模型
假设本地已下载模型文件(如Llama-2-7B),存放路径为/path/to/your/model,执行以下命令启动容器:
bashdocker run -it --network=host \ --device=/dev/kfd --device=/dev/dri \ # 映射AMD GPU设备 -v /path/to/your/model:/workspace/model \ # 挂载本地模型目录到容器内 rocm/vllm:latest \ python -m vllm.entrypoints.api_server \ --model /workspace/model \ # 指定容器内模型路径 --port 8000 # 服务端口(可自定义)
--network=host:直接使用主机网络(简单场景),或用-p 8000:8000映射端口。- 如需调整并发参数(如
--tensor-parallel-size指定GPU数量,--max-num-batched-tokens控制批处理大小),可在命令后追加。
4. 测试服务
容器启动后,通过HTTP请求测试推理效果(以curl为例):
bashcurl [***] \ -H "Content-Type: application/json" \ -d '{"prompt": "Hello! How are you?", "max_tokens": 50}'
若返回模型生成的文本,说明服务部署成功。
五、注意事项
- 模型文件需提前下载至本地(推荐Hugging Face格式),容器内默认不包含模型数据。
- 高并发场景下,建议根据GPU显存大小调整
--max-num-batched-tokens(如MI250 64GB显存可设为8192)。 - 如需使用量化模型(如GPTQ),启动命令需追加
--quantization gptq,并确保模型文件包含量化参数。
用户好评
来自真实用户的反馈,见证轩辕镜像的优质服务
常见问题
免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。
免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。
当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。
通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。
先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。
使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。
轩辕镜像下载加速使用手册
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
登录仓库拉取
通过 Docker 登录认证访问私有仓库
Linux
在 Linux 系统配置镜像加速服务
Windows/Mac
在 Docker Desktop 配置镜像加速
Docker Compose
Docker Compose 项目配置加速
K8s Containerd
Kubernetes 集群配置 Containerd
宝塔面板
在宝塔面板一键配置镜像加速
群晖
Synology 群晖 NAS 配置加速
飞牛
飞牛 fnOS 系统配置镜像加速
极空间
极空间 NAS 系统配置加速服务
爱快路由
爱快 iKuai 路由系统配置加速
绿联
绿联 NAS 系统配置镜像加速
威联通
QNAP 威联通 NAS 配置加速
Podman
Podman 容器引擎配置加速
Singularity/Apptainer
HPC 科学计算容器配置加速
其他仓库配置
ghcr、Quay、nvcr 等镜像仓库
专属域名拉取
无需登录使用专属域名加速
需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429