轩辕镜像
轩辕镜像专业版
个人中心搜索镜像
交易
充值流量我的订单
工具
工单支持镜像收录Run 助手IP 归属地密码生成Npm 源Pip 源
帮助
常见问题我要吐槽
其他
关于我们网站地图

官方QQ群: 13763429

轩辕镜像
镜像详情
rocm/vllm
官方博客使用教程热门镜像工单支持
本站面向开发者与科研用户,提供开源镜像的搜索和下载加速服务。
所有镜像均来源于原始开源仓库,本站不存储、不修改、不传播任何镜像内容。
轩辕镜像 - 国内开发者首选的专业 Docker 镜像下载加速服务平台 - 官方QQ群:13763429 👈点击免费获得技术支持。
本站面向开发者与科研用户,提供开源镜像的搜索和下载加速服务。所有镜像均来源于原始开源仓库,本站不存储、不修改、不传播任何镜像内容。

本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com

vllm Docker 镜像下载 - 轩辕镜像

vllm 镜像详细信息和使用指南

vllm 镜像标签列表和版本信息

vllm 镜像拉取命令和加速下载

vllm 镜像使用说明和配置指南

Docker 镜像加速服务 - 轩辕镜像平台

国内开发者首选的 Docker 镜像加速平台

极速拉取 Docker 镜像服务

相关 Docker 镜像推荐

热门 Docker 镜像下载

vllm
rocm/vllm

vllm 镜像详细信息

vllm 镜像标签列表

vllm 镜像使用说明

vllm 镜像拉取命令

Docker 镜像加速服务

轩辕镜像平台优势

镜像下载指南

相关 Docker 镜像推荐

这是为AMD图形处理器(GPU)量身打造的、基于ROCm开源平台深度优化的vLLM Docker容器,其中vLLM作为高性能大语言模型服务库,可提供高效推理与服务能力,Docker容器则保障了部署的便捷性与环境一致性,整体方案旨在为AMD GPU用户提供兼顾性能与易用性的优化大语言模型运行环境。
16 收藏0 次下载activerocm镜像
🚀轩辕镜像专业版更稳定💎一键安装 Docker 配置镜像源
中文简介版本下载
🚀轩辕镜像专业版更稳定💎一键安装 Docker 配置镜像源

vllm 镜像详细说明

vllm 使用指南

vllm 配置说明

vllm 官方文档

ROCm优化的vLLM Docker容器(适用于AMD GPU)

一、概述

这是一套基于ROCm(AMD的开源GPU计算平台)优化的vLLM Docker容器,专为AMD GPU用户设计。vLLM是一款高效的大语言模型服务框架,通过该容器,用户可快速部署支持高并发、低延迟的大语言模型推理服务,无需手动配置ROCm环境或编译vLLM依赖,直接开箱即用。

二、核心特性

1. ROCm深度优化

  • 针对AMD GPU架构(如MI250、MI300、Radeon Pro等型号)做了底层适配,充分利用GPU计算核心与显存带宽,提升模型推理效率。
  • 内置兼容当前主流ROCm版本(如ROCm 5.7+),无需额外安装驱动或 runtime,容器内环境已预配置完成。

2. 继承vLLM核心优势

  • 支持PagedAttention技术:通过高效的显存管理,减少模型加载时的内存占用,支持更大批次的并发请求。
  • 兼容多模型格式:可直接加载Hugging Face格式、GPTQ/AWQ量化模型等,无需额外转换。
  • 低延迟、高吞吐量:相比传统推理框架(如Transformers),相同硬件下吞吐量提升2-4倍,响应延迟降低30%以上。

三、适用场景

  • 企业/开发者测试:快速搭建大语言模型本地测试环境,验证模型性能或应用逻辑。
  • 中小规模服务部署:适合需要对外提供API服务的场景(如客服机器人、智能问答),单容器可支撑数百QPS的并发请求。
  • AMD GPU硬件使用者:解决AMD GPU用户部署vLLM时的环境配置难题(如ROCm依赖冲突、编译失败等)。

四、使用步骤

1. 准备环境

  • 确保本地已安装Docker(推荐20.10+版本),并启用GPU支持(安装nvidia-docker兼容工具,如rocm-docker)。
  • 确认AMD GPU支持ROCm(可通过rocm-smi命令检查,或参考AMD***ROCm支持列表)。

2. 获取容器镜像

从Docker Hub或私有仓库拉取镜像(以Docker Hub为例):

docker pull rocm/vllm:latest  # 最新版,默认包含ROCm优化和vLLM稳定版

如需指定版本,可替换:latest为具体标签(如:v0.4.0-rocm5.7)。

3. 启动容器并部署模型

假设本地已下载模型文件(如Llama-2-7B),存放路径为/path/to/your/model,执行以下命令启动容器:

docker run -it --network=host \
  --device=/dev/kfd --device=/dev/dri \  # 映射AMD GPU设备
  -v /path/to/your/model:/workspace/model \  # 挂载本地模型目录到容器内
  rocm/vllm:latest \
  python -m vllm.entrypoints.api_server \
    --model /workspace/model \  # 指定容器内模型路径
    --port 8000  # 服务端口(可自定义)
  • --network=host:直接使用主机网络(简单场景),或用-p 8000:8000映射端口。
  • 如需调整并发参数(如--tensor-parallel-size指定GPU数量,--max-num-batched-tokens控制批处理大小),可在命令后追加。

4. 测试服务

容器启动后,通过HTTP请求测试推理效果(以curl为例):

curl [***] \
  -H "Content-Type: application/json" \
  -d '{"prompt": "Hello! How are you?", "max_tokens": 50}'

若返回模型生成的文本,说明服务部署成功。

五、注意事项

  • 模型文件需提前下载至本地(推荐Hugging Face格式),容器内默认不包含模型数据。
  • 高并发场景下,建议根据GPU显存大小调整--max-num-batched-tokens(如MI250 64GB显存可设为8192)。
  • 如需使用量化模型(如GPTQ),启动命令需追加--quantization gptq,并确保模型文件包含量化参数。
查看更多 vllm 相关镜像 →
vllm/vllm-openai logo
vllm/vllm-openai
by vllm
暂无描述
1975M+ pulls
上次更新:1 天前
vllm/vllm-tpu logo
vllm/vllm-tpu
by vllm
vLLM框架在TPU上运行的Docker镜像仓库
210K+ pulls
上次更新:1 天前
syntheticdreamlabs/vllm logo
syntheticdreamlabs/vllm
by syntheticdreamlabs
vLLM构建镜像用于构建高性能大语言模型服务环境,支持快速部署及推理性能优化。
10K+ pulls
上次更新:1 个月前
opea/vllm logo
opea/vllm
by opea
基于VLLM项目的VLLM模型部署与服务镜像
110K+ pulls
上次更新:1 个月前

常见问题

轩辕镜像免费版与专业版有什么区别?

免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。

轩辕镜像免费版与专业版有分别支持哪些镜像?

免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。

流量耗尽错误提示

当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。

410 错误问题

通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。

manifest unknown 错误

先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。

镜像拉取成功后,如何去掉轩辕镜像域名前缀?

使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。

查看全部问题→

轩辕镜像下载加速使用手册

探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式

🔐

登录方式进行 Docker 镜像下载加速教程

通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤

🐧

Linux Docker 镜像下载加速教程

在 Linux 系统上配置轩辕镜像源,支持主流发行版

🖥️

Windows/Mac Docker 镜像下载加速教程

在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统

📦

Docker Compose 镜像下载加速教程

在 Docker Compose 中使用轩辕镜像加速,支持容器编排

📋

K8s containerd 镜像下载加速教程

在 k8s 中配置 containerd 使用轩辕镜像加速

🔧

宝塔面板 Docker 镜像下载加速教程

在宝塔面板中配置轩辕镜像加速,提升服务器管理效率

💾

群晖 NAS Docker 镜像下载加速教程

在 Synology 群晖NAS系统中配置轩辕镜像加速

🐂

飞牛fnOS Docker 镜像下载加速教程

在飞牛fnOS系统中配置轩辕镜像加速

📱

极空间 NAS Docker 镜像下载加速教程

在极空间NAS中配置轩辕镜像加速

⚡

爱快路由 ikuai Docker 镜像下载加速教程

在爱快ikuai系统中配置轩辕镜像加速

🔗

绿联 NAS Docker 镜像下载加速教程

在绿联NAS系统中配置轩辕镜像加速

🌐

威联通 NAS Docker 镜像下载加速教程

在威联通NAS系统中配置轩辕镜像加速

📦

Podman Docker 镜像下载加速教程

在 Podman 中配置轩辕镜像加速,支持多系统

📚

ghcr、Quay、nvcr、k8s、gcr 等仓库下载镜像加速教程

配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤

🚀

专属域名方式进行 Docker 镜像下载加速教程

无需登录即可使用轩辕镜像加速服务,更加便捷高效

需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429

商务:17300950906
|©2024-2025 源码跳动
商务合作电话:17300950906|Copyright © 2024-2025 杭州源码跳动科技有限公司. All rights reserved.