轩辕镜像
轩辕镜像专业版
个人中心搜索镜像
交易
充值流量我的订单
工具
工单支持镜像收录Run 助手IP 归属地密码生成Npm 源Pip 源
帮助
常见问题我要吐槽
其他
关于我们网站地图

官方QQ群: 13763429

轩辕镜像
镜像详情
opea/vllm
官方博客使用教程热门镜像工单支持
本站面向开发者与科研用户,提供开源镜像的搜索和下载加速服务。
所有镜像均来源于原始开源仓库,本站不存储、不修改、不传播任何镜像内容。
轩辕镜像 - 国内开发者首选的专业 Docker 镜像下载加速服务平台 - 官方QQ群:13763429 👈点击免费获得技术支持。
本站面向开发者与科研用户,提供开源镜像的搜索和下载加速服务。所有镜像均来源于原始开源仓库,本站不存储、不修改、不传播任何镜像内容。

本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com

vllm Docker 镜像下载 - 轩辕镜像

vllm 镜像详细信息和使用指南

vllm 镜像标签列表和版本信息

vllm 镜像拉取命令和加速下载

vllm 镜像使用说明和配置指南

Docker 镜像加速服务 - 轩辕镜像平台

国内开发者首选的 Docker 镜像加速平台

极速拉取 Docker 镜像服务

相关 Docker 镜像推荐

热门 Docker 镜像下载

vllm
opea/vllm

vllm 镜像详细信息

vllm 镜像标签列表

vllm 镜像使用说明

vllm 镜像拉取命令

Docker 镜像加速服务

轩辕镜像平台优势

镜像下载指南

相关 Docker 镜像推荐

基于VLLM项目的VLLM模型部署与服务镜像
1 收藏0 次下载activeopea镜像
🚀轩辕镜像专业版更稳定💎一键安装 Docker 配置镜像源
中文简介版本下载
🚀轩辕镜像专业版更稳定💎一键安装 Docker 配置镜像源

vllm 镜像详细说明

vllm 使用指南

vllm 配置说明

vllm 官方文档

vLLM Docker镜像文档

镜像概述和主要用途

vLLM Docker镜像是基于vLLM项目构建的容器化解决方案,专注于大语言模型(LLM)的高效推理与服务部署。vLLM项目起源于加州大学伯克利分校Sky Computing实验室,现为PyTorch基金会托管项目,以高性能、低资源消耗、易用性为核心优势,通过创新的内存管理和计算优化技术,实现LLM服务的高吞吐量和低延迟。

主要用途:

  • 部署和服务各类开源LLM模型(如Llama、Mixtral、LLaVA等)
  • 构建高吞吐量的LLM推理服务
  • 在多样化硬件环境(NVIDIA GPU、AMD GPU/CPU、Intel CPU/GPU等)中高效运行LLM

核心功能和特性

高效性能优化

  • PagedAttention内存管理:通过类操作系统分页机制高效管理注意力键值(KV)内存,解决传统LLM服务中的内存碎片化问题,支持更大批量请求。
  • 连续批处理(Continuous Batching):动态合并 incoming 请求,最大化GPU利用率,提升吞吐量。
  • CUDA/HIP图加速:通过预编译计算图减少 kernel 启动开销,加速模型执行。
  • Speculative Decoding:结合草稿模型提升生成速度,降低推理延迟。

多样化模型与量化支持

  • 广泛模型兼容性:无缝集成Hugging Face生态,支持Transformer类LLM(Llama、GPT-2等)、混合专家模型(Mixtral、Deepseek-V2/V3)、多模态模型(LLaVA)及嵌入模型(E5-Mistral)。
  • 多量化方案:支持GPTQ、AWQ、AutoRound、INT4、INT8、FP8等量化技术,平衡性能与显存占用。

灵活部署与易用性

  • 分布式推理:支持张量并行、流水线并行、数据并行及专家并行,适配多GPU/多节点部署。
  • OpenAI兼容API:提供与OpenAI API一致的接口(如/v1/completions、/v1/chat/completions),便于现有系统集成。
  • 流式输出:支持SSE(Server-Sent Events)流式返回生成结果,优化用户交互体验。
  • 多硬件支持:兼容NVIDIA GPU、AMD GPU/CPU、Intel CPU/GPU、PowerPC CPU及TPU,支持Intel Gaudi、IBM Spyre等硬件插件。

使用场景和适用范围

高吞吐量LLM服务

适用于需要处理大量并发请求的场景(如聊天机器人、智能客服),通过连续批处理和PagedAttention实现高GPU利用率。

资源受限环境部署

通过量化技术(如INT4/INT8)和内存优化,在显存有限的硬件(如消费级GPU)中运行大模型。

多模态与混合专家模型服务

支持多模态模型(如LLaVA)和混合专家模型(如Mixtral),满足复杂任务需求(如图文理解、多领域知识融合)。

多样化硬件环境适配

可在NVIDIA GPU(主流场景)、AMD GPU/CPU(低成本替代方案)、Intel x86架构(边缘设备)等环境中部署,降低硬件依赖。

科研与开发验证

提供简洁的接口和配置方式,便于快速验证模型性能、测试新量化方案或推理优化技术。

使用方法和配置说明

前置要求

  • 支持Docker Engine 20.10+及nvidia-docker(如需使用NVIDIA GPU)。
  • 硬件环境需满足模型运行要求(如GPU显存≥模型大小+批处理开销,具体参考模型文档)。

Docker快速启动

基础命令(NVIDIA GPU环境)

通过docker run直接启动vLLM服务,示例如下(以Llama-2-7b模型为例):

docker run -it --gpus all \
  -p 8000:8000 \
  -e MODEL_PATH="meta-llama/Llama-2-7b-hf" \
  vllm/vllm:latest \
  serve \
  --model ${MODEL_PATH} \
  --port 8000 \
  --host 0.0.0.0 \
  --max-num-seqs 256 \
  --quantization awq  # 可选,如使用量化模型

参数说明

  • --gpus all:启用所有GPU(仅NVIDIA环境)。
  • -p 8000:8000:映射容器端口8000到主机,用于API访问。
  • MODEL_PATH:指定模型路径,支持Hugging Face Hub模型ID(自动下载)或本地路径(需通过-v挂载)。
  • serve:启动vLLM API服务模式。
  • --model:模型路径或Hugging Face Hub ID。
  • --port/--host:API服务端口和绑定地址。
  • --max-num-seqs:最大并发序列数(控制批处理大小)。
  • --quantization:量化方式(如awq、gptq、int4、int8,需模型支持)。

本地模型挂载(如需使用私有模型)

若模型存储在本地路径/path/to/local/model,通过-v挂载到容器中:

docker run -it --gpus all \
  -p 8000:8000 \
  -v /path/to/local/model:/app/model \
  vllm/vllm:latest \
  serve \
  --model /app/model \
  --port 8000 \
  --host 0.0.0.0

Docker Compose配置

创建docker-compose.yml文件,定义服务配置(以多GPU分布式推理为例):

version: '3.8'

services:
  vllm-service:
    image: vllm/vllm:latest
    runtime: nvidia  # 或使用deploy.resources.device_requests(Docker 23.0+)
    ports:
      - "8000:8000"
    environment:
      - MODEL_PATH=mistralai/Mixtral-8x7B-Instruct-v0.1
      - CUDA_VISIBLE_DEVICES=0,1  # 指定使用GPU 0和1(分布式推理)
    command: >
      serve
      --model ${MODEL_PATH}
      --port 8000
      --host 0.0.0.0
      --tensor-parallel-size 2  # 张量并行度(需与GPU数量匹配)
      --max-batch-size 64
      --quantization gptq
      --streaming  # 启用流式输出
    volumes:
      - ./cache:/root/.cache/huggingface/hub  # 挂载模型缓存目录,避免重复下载
    restart: unless-stopped

启动服务:

docker-compose up -d

配置参数与环境变量

核心启动参数

参数名说明示例值
--model模型路径(Hugging Face Hub ID或本地路径)meta-llama/Llama-2-7b-hf
--portAPI服务端口8000
--host绑定地址(0.0.0.0表示允许外部访问)0.0.0.0
--quantization量化方式(需模型支持)awq、gptq、int4、fp8
--tensor-parallel-size张量并行度(分布式推理时GPU数量)2(使用2张GPU)
--max-batch-size最大批处理大小(控制GPU内存占用)64
--max-num-seqs最大并发序列数256
--streaming启用流式输出(SSE)(无需值,添加即启用)
--openai-api-compatible启用OpenAI兼容API(支持/v1/completions等端点)(无需值,添加即启用)

环境变量

环境变量名说明示例值
CUDA_VISIBLE_DEVICES指定可用GPU(逗号分隔ID)0,1(仅使用GPU 0和1)
MODEL_PATH模型路径(可替代--model参数,通过环境变量传递)/app/model
HUGGINGFACE_HUB_CACHEHugging Face模型缓存目录(避免重复下载)/root/.cache/huggingface/hub

验证服务可用性

服务启动后,可通过HTTP请求验证API是否正常工作(以OpenAI兼容API为例):

curl http://localhost:8000/v1/completions \
  -H "Content-Type: application/json" \
  -d '{
    "model": "meta-llama/Llama-2-7b-hf",
    "prompt": "Hello, world!",
    "max_tokens": 50
  }'

若返回包含生成文本的JSON响应,表明服务部署成功。

常见问题

1. 模型下载缓慢或失败

  • 解决:挂载本地Hugging Face缓存目录(通过-v ./cache:/root/.cache/huggingface/hub),或提前通过huggingface-cli download下载模型到本地后挂载。

2. GPU内存不足

  • 解决:启用量化(--quantization int4/awq)、减小--max-batch-size或--max-num-seqs,或使用分布式推理(--tensor-parallel-size)拆分模型到多GPU。

3. AMD GPU/CPU环境支持

  • 说明:需使用支持HIP的vLLM镜像(如vllm/vllm:amd-latest),并通过HIP_VISIBLE_DEVICES指定设备,启动命令中无需--gpus参数。

4. 流式输出无响应

  • 解决:确保启动时添加--streaming参数,且客户端支持SSE(如使用curl -N或浏览器EventSource API)。
查看更多 vllm 相关镜像 →
rocm/vllm logo
rocm/vllm
by AMD
认证
这是为AMD图形处理器(GPU)量身打造的、基于ROCm开源平台深度优化的vLLM Docker容器,其中vLLM作为高性能大语言模型服务库,可提供高效推理与服务能力,Docker容器则保障了部署的便捷性与环境一致性,整体方案旨在为AMD GPU用户提供兼顾性能与易用性的优化大语言模型运行环境。
1650K+ pulls
上次更新:18 天前
vllm/vllm-openai logo
vllm/vllm-openai
by vllm
暂无描述
1975M+ pulls
上次更新:21 小时前
vllm/vllm-tpu logo
vllm/vllm-tpu
by vllm
vLLM框架在TPU上运行的Docker镜像仓库
210K+ pulls
上次更新:22 小时前
syntheticdreamlabs/vllm logo
syntheticdreamlabs/vllm
by syntheticdreamlabs
vLLM构建镜像用于构建高性能大语言模型服务环境,支持快速部署及推理性能优化。
10K+ pulls
上次更新:1 个月前

常见问题

轩辕镜像免费版与专业版有什么区别?

免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。

轩辕镜像免费版与专业版有分别支持哪些镜像?

免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。

流量耗尽错误提示

当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。

410 错误问题

通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。

manifest unknown 错误

先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。

镜像拉取成功后,如何去掉轩辕镜像域名前缀?

使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。

查看全部问题→

轩辕镜像下载加速使用手册

探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式

🔐

登录方式进行 Docker 镜像下载加速教程

通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤

🐧

Linux Docker 镜像下载加速教程

在 Linux 系统上配置轩辕镜像源,支持主流发行版

🖥️

Windows/Mac Docker 镜像下载加速教程

在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统

📦

Docker Compose 镜像下载加速教程

在 Docker Compose 中使用轩辕镜像加速,支持容器编排

📋

K8s containerd 镜像下载加速教程

在 k8s 中配置 containerd 使用轩辕镜像加速

🔧

宝塔面板 Docker 镜像下载加速教程

在宝塔面板中配置轩辕镜像加速,提升服务器管理效率

💾

群晖 NAS Docker 镜像下载加速教程

在 Synology 群晖NAS系统中配置轩辕镜像加速

🐂

飞牛fnOS Docker 镜像下载加速教程

在飞牛fnOS系统中配置轩辕镜像加速

📱

极空间 NAS Docker 镜像下载加速教程

在极空间NAS中配置轩辕镜像加速

⚡

爱快路由 ikuai Docker 镜像下载加速教程

在爱快ikuai系统中配置轩辕镜像加速

🔗

绿联 NAS Docker 镜像下载加速教程

在绿联NAS系统中配置轩辕镜像加速

🌐

威联通 NAS Docker 镜像下载加速教程

在威联通NAS系统中配置轩辕镜像加速

📦

Podman Docker 镜像下载加速教程

在 Podman 中配置轩辕镜像加速,支持多系统

📚

ghcr、Quay、nvcr、k8s、gcr 等仓库下载镜像加速教程

配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤

🚀

专属域名方式进行 Docker 镜像下载加速教程

无需登录即可使用轩辕镜像加速服务,更加便捷高效

需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429

商务:17300950906
|©2024-2025 源码跳动
商务合作电话:17300950906|Copyright © 2024-2025 杭州源码跳动科技有限公司. All rights reserved.