专属域名
文档搜索
轩辕助手
Run助手
邀请有礼
返回顶部
快速返回页面顶部
收起
收起工具栏
轩辕镜像 官方专业版
轩辕镜像 官方专业版轩辕镜像 官方专业版官方专业版
首页个人中心搜索镜像

交易
充值流量我的订单
工具
提交工单镜像收录一键安装
Npm 源Pip 源Homebrew 源
帮助
常见问题
其他
关于我们网站地图

官方QQ群: 1072982923

热门搜索:openclaw🔥nginx🔥redis🔥mysqlopenjdkcursorweb2apimemgraphzabbixetcdubuntucorednsjdk
lisp19/vllm-gemma4 logo

lisp19/vllm-gemma4

lisp19
vllm的分支版本,专门优化以更好地在Turing架构上与Gemma4模型协同工作。
273 次下载11 天前更新
vllm/vllm-openai logo

vllm/vllm-openai

vLLM 高性能推理与服务镜像
vllm/vllm-openai:vLLM 高性能大模型推理框架的官方 Docker 镜像,封装 OpenAI API 兼容的推理服务;支持 PagedAttention 与连续批处理,吞吐量可达传统引擎 10-24 倍;支持 50+ 开源模型与量化方案,适用开源模型部署、OpenAI 应用本地化与高并发生产场景。
271 次收藏1000万+ 次下载3 天前更新
vllm/vllm-tpu logo

vllm/vllm-tpu

vLLM 高性能推理与服务镜像
vLLM框架在TPU上运行的Docker镜像仓库
3 次收藏10万+ 次下载3 天前更新
vllm/vllm-omni logo

vllm/vllm-omni

vLLM 高性能推理与服务镜像
暂无描述
7 次收藏1万+ 次下载18 天前更新
vllm/vllm-openai-rocm logo

vllm/vllm-openai-rocm

vLLM 高性能推理与服务镜像
暂无描述
3 次收藏1万+ 次下载3 天前更新
vllm/vllm-openai-cpu logo

vllm/vllm-openai-cpu

vLLM 高性能推理与服务镜像
暂无描述
8.4千+ 次下载14 天前更新
vllm/vllm-router logo

vllm/vllm-router

vLLM 高性能推理与服务镜像
暂无描述
4.1千+ 次下载3 天前更新
ai/gemma4 logo

ai/gemma4

Docker AI 官方镜像
Gemma 4是Google DeepMind开发的多模态开源AI模型系列,支持文本、图像、音频处理,优化了推理、编码能力和长上下文处理,提供E2B、E4B、26B A4B、31B四种尺寸,适用于从移动设备到服务器的多样化部署场景。
16 次收藏1万+ 次下载9 天前更新
vllm/vllm-omni-rocm logo

vllm/vllm-omni-rocm

vLLM 高性能推理与服务镜像
暂无描述
1 次收藏1.5千+ 次下载18 天前更新
rocm/vllm-ci logo

rocm/vllm-ci

rocm
该仓库用于托管vllm项目持续集成(CI)流程所需的镜像,旨在为vllm-ci相关的自动化构建、测试及部署环节提供稳定的镜像存储与管理支持,确保CI流程高效、可靠地运行,满足vllm项目在开发迭代过程中对集成环境的镜像需求,助力项目快速验证代码变更、保障软件质量。
5 次收藏100万+ 次下载2 天前更新
rocm/vllm-dev logo

rocm/vllm-dev

rocm
rocm/vllm-dev是基于AMD ROCm平台的高性能大语言模型开发镜像,集成vllm框架与AMD GPU加速能力,专为开发者打造大语言模型部署、推理优化及二次开发环境。镜像预配置PyTorch、HIP等核心依赖,支持低延迟、高吞吐量的LLM推理,可快速进行模型加载、性能调优与多实例部署测试,助力开发者高效构建和调试大语言模型应用,充分发挥AMD GPU在AI计算中的算力优势。
18 次收藏10万+ 次下载3 天前更新
rocm/vllm logo

rocm/vllm

rocm
这是为AMD图形处理器(GPU)量身打造的、基于ROCm开源平台深度优化的vLLM Docker容器,其中vLLM作为高性能大语言模型服务库,可提供高效推理与服务能力,Docker容器则保障了部署的便捷性与环境一致性,整体方案旨在为AMD GPU用户提供兼顾性能与易用性的优化大语言模型运行环境。
24 次收藏10万+ 次下载21 天前更新
ai/kimi-k2-vllm logo

ai/kimi-k2-vllm

Docker AI 官方镜像
Kimi K2 Thinking是最新开源思考模型,作为能逐步推理并动态调用工具的思考代理,具备深度多步推理能力,支持200-300次连续工具调用,原生INT4量化实现低延迟和低GPU内存占用,上下文窗口达256k。
1 次收藏1万+ 次下载4 个月前更新
intel/vllm logo

intel/vllm

intel
暂无描述
6 次收藏1万+ 次下载22 天前更新
ai/gpt-oss-vllm logo

ai/gpt-oss-vllm

Docker AI 官方镜像
OpenAI的开源权重模型,专为强大的推理能力和代理任务设计,适用于多用途开发场景。
1 次收藏1万+ 次下载5 个月前更新
ai/qwen3-vllm logo

ai/qwen3-vllm

Docker AI 官方镜像
Qwen3是最新一代Qwen大语言模型,专为顶级编码、数学、推理和语言任务设计,支持密集型和混合专家模型架构,提供动态推理模式切换,适用于多语言多领域应用。
1万+ 次下载5 个月前更新
ai/gemma3-vllm logo

ai/gemma3-vllm

Docker AI 官方镜像
Google’s latest Gemma, small yet strong for chat and generation
1 次收藏1万+ 次下载5 个月前更新
ai/glm-4.7-flash-vllm logo

ai/glm-4.7-flash-vllm

Docker AI 官方镜像
GLM-4.7-Flash是顶级的30B-A3B混合专家模型,平衡了强大性能与高效部署,为轻量级部署提供兼顾性能与效率的新选择。
1 次收藏1万+ 次下载2 个月前更新
ai/qwen3-coder-next-vllm logo

ai/qwen3-coder-next-vllm

Docker AI 官方镜像
高级编码代理模型,拥有800亿参数(30亿激活MoE),专为编码代理和本地开发环境设计,具备高效代码生成、调试及工具调用能力,支持多种IDE平台集成。
1 次收藏1万+ 次下载2 个月前更新
intel/llm-scaler-vllm logo

intel/llm-scaler-vllm

intel
暂无描述
2 次收藏1万+ 次下载3 天前更新
ai/deepseek-v3.2-vllm logo

ai/deepseek-v3.2-vllm

Docker AI 官方镜像
DeepSeek-V3.2通过DeepSeek稀疏注意力(DSA)、可扩展强化学习框架和大规模智能体任务合成管道提升计算效率与推理能力,荣获2025年国际数学奥林匹克(IMO)和国际信息学奥林匹克(IOI)金牌。
10 次收藏1万+ 次下载4 个月前更新
openeuler/vllm-cpu logo

openeuler/vllm-cpu

openeuler
官方vLLM Ascend Docker镜像,基于openEuler构建,提供快速高效的LLM推理和服务能力,支持PagedAttention内存管理、连续批处理、多种量化技术及优化内核,适用于高性能语言模型部署。
4 次收藏1万+ 次下载14 天前更新
ai/smollm2-vllm logo

ai/smollm2-vllm

Docker AI 官方镜像
SmolLM 2是为速度、边缘设备和本地开发构建的小型LLM系列,提供135M、360M、1.7B参数版本,以Safetensors格式打包并采用vLLM导向布局,便于通过Docker Hub分发。
9.7千+ 次下载5 个月前更新
ai/all-minilm-l6-v2-vllm logo

ai/all-minilm-l6-v2-vllm

Docker AI 官方镜像
all-MiniLM-L6-v2是一个sentence-transformers模型,可将句子和段落映射到384维密集向量空间,适用于聚类或语义搜索等任务。
1 次收藏2.6千+ 次下载5 个月前更新
ai/qwen3-reranker-vllm logo

ai/qwen3-reranker-vllm

Docker AI 官方镜像
多语言重排序模型,用于文本检索,可跨119种语言对文档相关性进行评分,基于Qwen3系列基础模型,具备多语言能力、长文本理解和推理技能。
3 次收藏1万+ 次下载4 个月前更新
ai/gemma4-safetensors logo

ai/gemma4-safetensors

Docker AI 官方镜像
Gemma 4是Google DeepMind开发的开源多模态AI模型系列,支持文本、图像(小模型含音频)输入与文本输出,优化用于推理、编码和长上下文处理,提供E2B、E4B、26B A4B、31B四种尺寸,适配从移动设备到服务器的部署需求。
4.7千+ 次下载15 天前更新
ai/qwen3-embedding-vllm logo

ai/qwen3-embedding-vllm

Docker AI 官方镜像
Qwen3 Embedding是Qwen系列最新专有模型,专为文本嵌入和排序任务设计,提供0.6B、4B和8B多种尺寸,具备出色的多语言能力、长文本理解和推理技能,适用于文本检索、代码检索、分类、聚类等任务。
1 次收藏1万+ 次下载5 个月前更新
ai/ministral3-vllm logo

ai/ministral3-vllm

Docker AI 官方镜像
Ministral 3是紧凑高效的多模态语言模型,支持视觉和文本输入,性能接近24B模型,专为边缘部署和本地推理优化,适用于资源受限环境。
4 次收藏1万+ 次下载4 个月前更新
openeuler/vllm-ascend logo

openeuler/vllm-ascend

openeuler
官方vLLM Ascend Docker镜像,基于openEuler构建,是社区维护的硬件插件,用于在Ascend NPU上无缝运行vLLM,支持Transformer、MoE、Embedding、多模态等多种开源模型,遵循硬件可插拔接口规范。
3 次收藏7.3千+ 次下载5 个月前更新
openeuler/llm-vllm logo

openeuler/llm-vllm

openeuler
暂无描述
238 次下载1 年前更新
ai/functiongemma-vllm logo

ai/functiongemma-vllm

Docker AI 官方镜像
FunctionGemma是一个270M参数的开放模型,基于Gemma 3构建,专为纯文本函数调用训练,可微调为高效、离线运行的专用代理,适用于资源受限设备。
1 次收藏5.5千+ 次下载3 个月前更新
ai/embeddinggemma-vllm logo

ai/embeddinggemma-vllm

Docker AI 官方镜像
Embedding Gemma是Google DeepMind推出的最先进文本嵌入模型,基于Gemma架构创建高质量文本向量表示,能捕捉语义含义,适用于检索增强生成(RAG)、语义搜索及相似性任务,为嵌入类应用提供强大基础。
3千+ 次下载5 个月前更新
runpod/worker-v1-vllm logo

runpod/worker-v1-vllm

runpod
暂无描述
4 次收藏50万+ 次下载8 天前更新
vastai/vllm logo

vastai/vllm

vastai
暂无描述
2 次收藏5万+ 次下载7 天前更新
rocmvllm/vllm-openai logo

rocmvllm/vllm-openai

rocmvllm
暂无描述
1 次收藏178 次下载1 年前更新
dustynv/vllm logo

dustynv/vllm

dustynv
NVIDIA Jetson 平台优化的大语言模型推理服务框架
5 次收藏5万+ 次下载9 个月前更新
novitalabs/vllm-openai logo

novitalabs/vllm-openai

novitalabs
暂无描述
10万+ 次下载10 天前更新
ascendai/vllm-ascend logo

ascendai/vllm-ascend

ascendai
暂无描述
10万+ 次下载2 天前更新
runpod/worker-vllm logo

runpod/worker-vllm

runpod
暂无描述
6 次收藏10万+ 次下载1 年前更新
yuanmodel/vllm-v0.4.0 logo

yuanmodel/vllm-v0.4.0

yuanmodel
暂无描述
1万+ 次下载1 年前更新
lmcache/vllm-openai logo

lmcache/vllm-openai

lmcache
暂无描述
8 次收藏10万+ 次下载9 天前更新
daehoyang/vllm logo

daehoyang/vllm

daehoyang
暂无描述
1万+ 次下载1 年前更新
substratusai/vllm logo

substratusai/vllm

substratusai
暂无描述
1万+ 次下载1 年前更新
ascendai/vllm-omni logo

ascendai/vllm-omni

ascendai
暂无描述
1万+ 次下载2 天前更新
mekayelanik/vllm-cpu logo

mekayelanik/vllm-cpu

mekayelanik
vLLM CPU推理引擎 - 为Intel/AMD/ARM64处理器优化的Docker镜像,提供高效的大语言模型服务,支持OpenAI兼容API及多种CPU指令集优化。
1 次收藏1万+ 次下载9 天前更新
hyoon11/vllm-dev logo

hyoon11/vllm-dev

hyoon11
暂无描述
1 次收藏1万+ 次下载30 天前更新
apecloud/vllm logo

apecloud/vllm

apecloud
暂无描述
1 次收藏1万+ 次下载2 年前更新
opea/vllm logo

opea/vllm

opea
基于VLLM项目的VLLM模型部署与服务镜像
1 次收藏1万+ 次下载7 个月前更新
syntheticdreamlabs/vllm logo

syntheticdreamlabs/vllm

syntheticdreamlabs
vLLM构建镜像用于构建高性能大语言模型服务环境,支持快速部署及推理性能优化。
1万+ 次下载3 个月前更新
baseten/vllm logo

baseten/vllm

baseten
用于通过vLLM提供模型服务的基础镜像,支持高效部署和运行大语言模型推理服务,优化内存使用与请求处理性能。
1 次收藏9.1千+ 次下载2 个月前更新
yuanlabai/vllm logo

yuanlabai/vllm

yuanlabai
暂无描述
7.5千+ 次下载10 天前更新
dengcao/vllm-openai logo

dengcao/vllm-openai

dengcao
vLLM是一个快速且易用的大语言模型推理与服务库,最初由加州大学伯克利分校开发,采用PagedAttention技术优化内存使用,支持高吞吐量、低延迟的推理,兼容Hugging Face模型格式,可轻松部署各类LLM,适用于科研和生产环境,显著提升大语言模型的服务效率。
2 次收藏1万+ 次下载6 个月前更新
stepfun2025/vllm logo

stepfun2025/vllm

stepfun2025
暂无描述
7千+ 次下载7 个月前更新
scitrera/dgx-spark-vllm logo

scitrera/dgx-spark-vllm

scitrera
为NVIDIA DGX Spark系统优化的CUDA容器,提供基于vLLM、sglang和PyTorch的稳定预构建镜像,支持多节点推理,适合直接部署或作为自定义构建的基础镜像。
6 次收藏1万+ 次下载1 个月前更新
nalanzeyu/vllm-gfx906 logo

nalanzeyu/vllm-gfx906

nalanzeyu
vLLM是一款高性能大型语言模型服务库,适用于AMD gfx906系列显卡,例如镭龙VII(Radeon VII)、MI50及MI60等型号,能够为这些AMD显卡提供高效的大型语言模型部署与运行支持,助力用户在相关硬件平台上实现高性能的AI推理与服务。
6 次收藏1万+ 次下载1 个月前更新
novitalabs/nebula-py312-vllm logo

novitalabs/nebula-py312-vllm

novitalabs
暂无描述
1万+ 次下载9 天前更新
robatvastai/vllm logo

robatvastai/vllm

robatvastai
暂无描述
5.9千+ 次下载21 天前更新
opea/vllm-gaudi logo

opea/vllm-gaudi

opea
基于vLLM项目,在Gaudi2上部署和服务VLLM模型的Docker镜像,提供高效、快速的大语言模型推理与服务能力,支持多种量化技术和优化特性。
1万+ 次下载3 个月前更新
langtechbsc/vllm-with-params logo

langtechbsc/vllm-with-params

langtechbsc
基于vllm/vllm-openai修改的Docker镜像,支持通过PARAMS参数传递命令行参数,适用于运行语言模型;x.y.z.1标签包含固定版本hermes-tool-parser,启用时需使用--tool-call-parser hermes_fixed选项。
1万+ 次下载1 年前更新
novitalabs/nebula-py310-vllm logo

novitalabs/nebula-py310-vllm

novitalabs
暂无描述
1万+ 次下载3 个月前更新
truefoundrycloud/vllm logo

truefoundrycloud/vllm

truefoundrycloud
暂无描述
3.8千+ 次下载2 年前更新
truffeldev/vllm logo

truffeldev/vllm

truffeldev
暂无描述
3.2千+ 次下载3 天前更新
avarok/dgx-vllm-nvfp4-kernel logo

avarok/dgx-vllm-nvfp4-kernel

avarok
暂无描述
3 次收藏1万+ 次下载1 个月前更新
apecloud/vllm-openai logo

apecloud/vllm-openai

apecloud
暂无描述
8.8千+ 次下载4 个月前更新
vubutterflies/vllm logo

vubutterflies/vllm

vubutterflies
暂无描述
2.5千+ 次下载2 年前更新
uptospace/vllm logo

uptospace/vllm

uptospace
暂无描述
2.4千+ 次下载11 个月前更新
第 1 页

与「vllm-gemma4」相关的博客与命名空间

相关博客

MinerU Docker 部署指南:PDF 结构化解析服务实践

MinerU 是一款面向开发者与科研用户的容器化应用,专为 vLLM 后端服务设计,提供高效的文档解析与处理能力。通过 Docker 容器化部署 MinerU,可以简化安装流程、确保环境一致性,并便于在不同环境中快速迁移和扩展。 本指南将详细介绍 MinerU 的 Docker 容器化部署方案,包括环境准备、镜像拉取、容器部署、功能测试及生产环境配置建议,旨在帮助用户快速搭建稳定可靠的 MinerU 服务。

MinerU,PDF,人工智能,vLLM2025/12/30

VLLM Docker 容器化部署指南:在 NVIDIA Jetson 平台高效运行大语言模型推理服务

VLLM是一个高效的开源大语言模型(LLM)推理服务框架,通过创新的PagedAttention技术实现高吞吐量和低延迟的推理性能。本文介绍的`dustynv/vllm`镜像是针对NVIDIA Jetson平台优化的容器化版本,由[dustynv/jetson-containers](https://github.com/dustynv/jetson-containers)项目构建,专为边缘计算场景设计,支持在资源受限的嵌入式设备上部署高性能LLM推理服务。

Docker,VLLM2025/12/2

vllm-openai Docker 部署全手册

从个人开发者测试开源大模型,到企业搭建私有推理服务,vllm-openai 都是高效且低成本的选择。本教程将从核心概念讲起,逐步覆盖 Docker 环境准备、镜像拉取、多场景部署、结果验证及问题排查,无论你是初学者还是高级工程师,都能照着步骤完成部署。

Docker,vllm-openai2025/10/9

verl Docker 容器化部署手册

无论你是刚接触大模型工具的初学者,还是需要高效管理训练任务的高级工程师,本教程都将带你一步步完成 verlai/verl 镜像的 Docker 部署——从工具认知、环境搭建到多场景部署实践,每个步骤均配备完整命令与详细说明,确保照着做就能成。

Docker,verl2025/10/8
轩辕镜像
镜像搜索
...
vllm-gemma4
博客公告Docker 镜像公告与技术博客
热门镜像查看热门 Docker 镜像推荐
一键安装一键安装 Docker 并配置镜像源
镜像拉取问题咨询请 提交工单,官方技术交流群:1072982923。轩辕镜像所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
镜像拉取问题咨询请提交工单,官方技术交流群:。轩辕镜像所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
商务合作:点击复制邮箱
©2024-2026 源码跳动
商务合作:点击复制邮箱Copyright © 2024-2026 杭州源码跳动科技有限公司. All rights reserved.