本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com
这是一套基于ROCm(AMD的开源GPU计算平台)优化的vLLM Docker容器,专为AMD GPU用户设计。vLLM是一款高效的大语言模型服务框架,通过该容器,用户可快速部署支持高并发、低延迟的大语言模型推理服务,无需手动配置ROCm环境或编译vLLM依赖,直接开箱即用。
rocm-docker)。rocm-smi命令检查,或参考AMD***ROCm支持列表)。从Docker Hub或私有仓库拉取镜像(以Docker Hub为例):
docker pull rocm/vllm:latest # 最新版,默认包含ROCm优化和vLLM稳定版
如需指定版本,可替换:latest为具体标签(如:v0.4.0-rocm5.7)。
假设本地已下载模型文件(如Llama-2-7B),存放路径为/path/to/your/model,执行以下命令启动容器:
docker run -it --network=host \ --device=/dev/kfd --device=/dev/dri \ # 映射AMD GPU设备 -v /path/to/your/model:/workspace/model \ # 挂载本地模型目录到容器内 rocm/vllm:latest \ python -m vllm.entrypoints.api_server \ --model /workspace/model \ # 指定容器内模型路径 --port 8000 # 服务端口(可自定义)
--network=host:直接使用主机网络(简单场景),或用-p 8000:8000映射端口。--tensor-parallel-size指定GPU数量,--max-num-batched-tokens控制批处理大小),可在命令后追加。容器启动后,通过HTTP请求测试推理效果(以curl为例):
curl [***] \ -H "Content-Type: application/json" \ -d '{"prompt": "Hello! How are you?", "max_tokens": 50}'
若返回模型生成的文本,说明服务部署成功。
--max-num-batched-tokens(如MI250 64GB显存可设为8192)。--quantization gptq,并确保模型文件包含量化参数。免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。
免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。
当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。
通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。
先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。
使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤
在 Linux 系统上配置轩辕镜像源,支持主流发行版
在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统
在 Docker Compose 中使用轩辕镜像加速,支持容器编排
在 k8s 中配置 containerd 使用轩辕镜像加速
在宝塔面板中配置轩辕镜像加速,提升服务器管理效率
在 Synology 群晖NAS系统中配置轩辕镜像加速
在飞牛fnOS系统中配置轩辕镜像加速
在极空间NAS中配置轩辕镜像加速
在爱快ikuai系统中配置轩辕镜像加速
在绿联NAS系统中配置轩辕镜像加速
在威联通NAS系统中配置轩辕镜像加速
在 Podman 中配置轩辕镜像加速,支持多系统
配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤
无需登录即可使用轩辕镜像加速服务,更加便捷高效
需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429