专属域名
文档搜索
提交工单
轩辕助手
Run助手
返回顶部
快速返回页面顶部
收起
收起工具栏
ai/ministral3-vllm logo
ai/ministral3-vllm
by Docker
认证
Ministral 3是紧凑高效的多模态语言模型,支持视觉和文本输入,性能接近24B模型,专为边缘部署和本地推理优化,适用于资源受限环境。
1 星标10K+ 次下载
上次更新:1 个月前
rocm/vllm-ci logo
rocm/vllm-ci
by AMD
认证
该仓库用于托管vllm项目持续集成(CI)流程所需的镜像,旨在为vllm-ci相关的自动化构建、测试及部署环节提供稳定的镜像存储与管理支持,确保CI流程高效、可靠地运行,满足vllm项目在开发迭代过程中对集成环境的镜像需求,助力项目快速验证代码变更、保障软件质量。
4 星标500K+ 次下载
上次更新:1 天前
rocm/vllm-dev logo
rocm/vllm-dev
by AMD
认证
rocm/vllm-dev是基于AMD ROCm平台的高性能大语言模型开发镜像,集成vllm框架与AMD GPU加速能力,专为开发者打造大语言模型部署、推理优化及二次开发环境。镜像预配置PyTorch、HIP等核心依赖,支持低延迟、高吞吐量的LLM推理,可快速进行模型加载、性能调优与多实例部署测试,助力开发者高效构建和调试大语言模型应用,充分发挥AMD GPU在AI计算中的算力优势。
17 星标100K+ 次下载
上次更新:2 天前
rocm/vllm logo
rocm/vllm
by AMD
认证
这是为AMD图形处理器(GPU)量身打造的、基于ROCm开源平台深度优化的vLLM Docker容器,其中vLLM作为高性能大语言模型服务库,可提供高效推理与服务能力,Docker容器则保障了部署的便捷性与环境一致性,整体方案旨在为AMD GPU用户提供兼顾性能与易用性的优化大语言模型运行环境。
18 星标100K+ 次下载
上次更新:29 天前
ai/ministral3 logo
ai/ministral3
by Docker
认证
Ministral 3是支持视觉的紧凑型语言模型,性能接近24B模型,专为本地边缘部署和推理优化,适用于聊天应用、助手、设备端推理及多模态场景。
0 星标10K+ 次下载
上次更新:1 个月前
ai/gemma3-vllm logo
ai/gemma3-vllm
by Docker
认证
Google’s latest Gemma, small yet strong for chat and generation
0 星标10K+ 次下载
上次更新:2 个月前
ai/deepseek-v3.2-vllm logo
ai/deepseek-v3.2-vllm
by Docker
认证
DeepSeek-V3.2通过DeepSeek稀疏注意力(DSA)、可扩展强化学习框架和大规模智能体任务合成管道提升计算效率与推理能力,荣获2025年国际数学奥林匹克(IMO)和国际信息学奥林匹克(IOI)金牌。
3 星标10K+ 次下载
上次更新:1 个月前
vllm/vllm-openai logo
vllm/vllm-openai
by vllm
vllm/vllm-openai:vLLM 高性能大模型推理框架的官方 Docker 镜像,封装 OpenAI API 兼容的推理服务;支持 PagedAttention 与连续批处理,吞吐量可达传统引擎 10-24 倍;支持 50+ 开源模型与量化方案,适用开源模型部署、OpenAI 应用本地化与高并发生产场景。
227 星标10M+ 次下载
上次更新:6 天前
vllm/vllm-tpu logo
vllm/vllm-tpu
by vllm
vLLM框架在TPU上运行的Docker镜像仓库
2 星标10K+ 次下载
上次更新:2 天前
vllm/vllm-omni logo
vllm/vllm-omni
by vllm
暂无描述
1 星标2.9K 次下载
上次更新:4 天前
runpod/worker-v1-vllm logo
runpod/worker-v1-vllm
by runpod
暂无描述
3 星标500K+ 次下载
上次更新:18 天前
dustynv/vllm logo
dustynv/vllm
by dustynv
NVIDIA Jetson 平台优化的大语言模型推理服务框架
3 星标50K+ 次下载
上次更新:6 个月前
vastai/vllm logo
vastai/vllm
by vastai
暂无描述
1 星标10K+ 次下载
上次更新:8 天前
lmcache/vllm-openai logo
lmcache/vllm-openai
by lmcache
暂无描述
8 星标100K+ 次下载
上次更新:2 天前
substratusai/vllm logo
substratusai/vllm
by substratusai
暂无描述
0 星标10K+ 次下载
上次更新:9 个月前
opea/vllm logo
opea/vllm
by opea
基于VLLM项目的VLLM模型部署与服务镜像
1 星标10K+ 次下载
上次更新:3 个月前
syntheticdreamlabs/vllm logo
syntheticdreamlabs/vllm
by syntheticdreamlabs
vLLM构建镜像用于构建高性能大语言模型服务环境,支持快速部署及推理性能优化。
0 星标10K+ 次下载
上次更新:18 天前
hyoon11/vllm-dev logo
hyoon11/vllm-dev
by hyoon11
暂无描述
1 星标10K+ 次下载
上次更新:17 天前
novitalabs/vllm-openai logo
novitalabs/vllm-openai
by novitalabs
暂无描述
0 星标10K+ 次下载
上次更新:1 个月前
novitalabs/nebula-py312-vllm logo
novitalabs/nebula-py312-vllm
by novitalabs
暂无描述
0 星标10K+ 次下载
上次更新:10 天前
langtechbsc/vllm-with-params logo
langtechbsc/vllm-with-params
by langtechbsc
基于vllm/vllm-openai修改的Docker镜像,支持通过PARAMS参数传递命令行参数,适用于运行语言模型;x.y.z.1标签包含固定版本hermes-tool-parser,启用时需使用--tool-call-parser hermes_fixed选项。
0 星标10K+ 次下载
上次更新:8 个月前
dengcao/vllm-openai logo
dengcao/vllm-openai
by dengcao
vLLM是一个快速且易用的大语言模型推理与服务库,最初由加州大学伯克利分校开发,采用PagedAttention技术优化内存使用,支持高吞吐量、低延迟的推理,兼容Hugging Face模型格式,可轻松部署各类LLM,适用于科研和生产环境,显著提升大语言模型的服务效率。
2 星标10K+ 次下载
上次更新:2 个月前
nalanzeyu/vllm-gfx906 logo
nalanzeyu/vllm-gfx906
by nalanzeyu
vLLM是一款高性能大型语言模型服务库,适用于AMD gfx906系列显卡,例如镭龙VII(Radeon VII)、MI50及MI60等型号,能够为这些AMD显卡提供高效的大型语言模型部署与运行支持,助力用户在相关硬件平台上实现高性能的AI推理与服务。
6 星标10K+ 次下载
上次更新:11 天前
novitalabs/nebula-py310-vllm logo
novitalabs/nebula-py310-vllm
by novitalabs
暂无描述
0 星标10K+ 次下载
上次更新:19 天前
第 1 页
轩辕镜像
镜像搜索
...
ministral3-vllm
官方博客Docker 镜像使用技巧与技术博客
热门镜像查看热门 Docker 镜像推荐
一键安装一键安装 Docker 并配置镜像源
提交工单
免费获取在线技术支持请 提交工单,官方QQ群:13763429 。
轩辕镜像面向开发者与科研用户,提供开源镜像的搜索和访问支持。所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
免费获取在线技术支持请提交工单,官方QQ群: 。
轩辕镜像面向开发者与科研用户,提供开源镜像的搜索和访问支持。所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
官方邮箱:点击复制邮箱
©2024-2026 源码跳动
官方邮箱:点击复制邮箱Copyright © 2024-2026 杭州源码跳动科技有限公司. All rights reserved.
轩辕镜像 官方专业版 Logo
轩辕镜像轩辕镜像官方专业版
首页个人中心搜索镜像
交易
充值流量我的订单
工具
提交工单镜像收录一键安装
Npm 源Pip 源Homebrew 源
帮助
常见问题
其他
关于我们网站地图

官方QQ群: 13763429