轩辕镜像
专业版
个人中心
搜索镜像
专属域名
我的收藏
邀请有礼
交易
充值流量
我的订单
工具
提交工单
镜像收录
一键安装
Docker 工具
使用手册
Npm 源
Pip 源
帮助
常见问题
信息举报
官方Q群
其他
用户须知
关于我们
网站地图
官方QQ群:
13763429
轩辕镜像
镜像搜索
...
llm_benchmark-vllm
文档搜索
官方博客
热门镜像
提交工单
本站面向开发者与科研用户,提供开源镜像的搜索和下载加速服务。
所有镜像均来源于原始开源仓库,本站
不存储、不修改、不传播
任何镜像内容。
轩辕镜像 —— 国内开发者首选的专业 Docker 镜像加速平台。在线技术支持请优先
提交工单
,技术交流欢迎加入官方QQ群:
13763429
。
本站面向开发者与科研用户,提供开源镜像的搜索和下载加速服务。所有镜像均来源于原始开源仓库,本站
不存储、不修改、不传播
任何镜像内容。
Docker镜像搜索:llm_benchmark-vllm - 轩辕镜像平台
llm_benchmark-vllm 相关Docker镜像搜索结果(共20个)
llm_benchmark-vllm 搜索结果统计说明
llm_benchmark-vllm 搜索提示
llm_benchmark-vllm 官方镜像筛选
llm_benchmark-vllm 官方镜像列表
llm_benchmark-vllm 官方镜像筛选说明
llm_benchmark-vllm 认证发布者镜像筛选
llm_benchmark-vllm 认证镜像列表
llm_benchmark-vllm 认证镜像筛选说明
llm_benchmark-vllm 相关镜像列表
llm_benchmark-vllm 镜像卡片展示
llm_benchmark-vllm 镜像详情说明
加载更多 llm_benchmark-vllm 镜像
加载更多 llm_benchmark-vllm 按钮
加载提示
Docker Hub
Docker
搜索镜像
搜索
点击查看其他镜像仓库结果数量
查看其他仓库
nosana/llm_benchmark-vllm
by
nosana
暂无描述
0 星标
10K+ 次下载
上次更新:11 个月前
rocm/vllm-ci
by
AMD
认证
该仓库用于托管vllm项目持续集成(CI)流程所需的镜像,旨在为vllm-ci相关的自动化构建、测试及部署环节提供稳定的镜像存储与管理支持,确保CI流程高效、可靠地运行,满足vllm项目在开发迭代过程中对集成环境的镜像需求,助力项目快速验证代码变更、保障软件质量。
4 星标
500K+ 次下载
上次更新:2 天前
rocm/vllm-dev
by
AMD
认证
rocm/vllm-dev是基于AMD ROCm平台的高性能大语言模型开发镜像,集成vllm框架与AMD GPU加速能力,专为开发者打造大语言模型部署、推理优化及二次开发环境。镜像预配置PyTorch、HIP等核心依赖,支持低延迟、高吞吐量的LLM推理,可快速进行模型加载、性能调优与多实例部署测试,助力开发者高效构建和调试大语言模型应用,充分发挥AMD GPU在AI计算中的算力优势。
15 星标
100K+ 次下载
上次更新:2 天前
rocm/vllm
by
AMD
认证
这是为AMD图形处理器(GPU)量身打造的、基于ROCm开源平台深度优化的vLLM Docker容器,其中vLLM作为高性能大语言模型服务库,可提供高效推理与服务能力,Docker容器则保障了部署的便捷性与环境一致性,整体方案旨在为AMD GPU用户提供兼顾性能与易用性的优化大语言模型运行环境。
18 星标
100K+ 次下载
上次更新:1 个月前
vllm/vllm-openai
by
vllm
vllm/vllm-openai:vLLM 高性能大模型推理框架的官方 Docker 镜像,封装 OpenAI API 兼容的推理服务;支持 PagedAttention 与连续批处理,吞吐量可达传统引擎 10-24 倍;支持 50+ 开源模型与量化方案,适用开源模型部署、OpenAI 应用本地化与高并发生产场景。
218 星标
5M+ 次下载
上次更新:3 天前
vllm/vllm-tpu
by
vllm
vLLM框架在TPU上运行的Docker镜像仓库
2 星标
10K+ 次下载
上次更新:3 天前
runpod/worker-v1-vllm
by
runpod
暂无描述
3 星标
500K+ 次下载
上次更新:12 天前
dustynv/vllm
by
dustynv
NVIDIA Jetson 平台优化的大语言模型推理服务框架
3 星标
50K+ 次下载
上次更新:5 个月前
vastai/vllm
by
vastai
暂无描述
1 星标
10K+ 次下载
上次更新:1 个月前
lmcache/vllm-openai
by
lmcache
暂无描述
8 星标
50K+ 次下载
上次更新:3 天前
substratusai/vllm
by
substratusai
暂无描述
0 星标
10K+ 次下载
上次更新:8 个月前
opea/vllm
by
opea
基于VLLM项目的VLLM模型部署与服务镜像
1 星标
10K+ 次下载
上次更新:2 个月前
syntheticdreamlabs/vllm
by
syntheticdreamlabs
vLLM构建镜像用于构建高性能大语言模型服务环境,支持快速部署及推理性能优化。
0 星标
10K+ 次下载
上次更新:2 个月前
hyoon11/vllm-dev
by
hyoon11
暂无描述
1 星标
10K+ 次下载
上次更新:10 天前
novitalabs/nebula-py312-vllm
by
novitalabs
暂无描述
0 星标
10K+ 次下载
上次更新:10 天前
dengcao/vllm-openai
by
dengcao
vLLM是一个快速且易用的大语言模型推理与服务库,最初由加州大学伯克利分校开发,采用PagedAttention技术优化内存使用,支持高吞吐量、低延迟的推理,兼容Hugging Face模型格式,可轻松部署各类LLM,适用于科研和生产环境,显著提升大语言模型的服务效率。
2 星标
10K+ 次下载
上次更新:1 个月前
langtechbsc/vllm-with-params
by
langtechbsc
基于vllm/vllm-openai修改的Docker镜像,支持通过PARAMS参数传递命令行参数,适用于运行语言模型;x.y.z.1标签包含固定版本hermes-tool-parser,启用时需使用--tool-call-parser hermes_fixed选项。
0 星标
10K+ 次下载
上次更新:7 个月前
nalanzeyu/vllm-gfx906
by
nalanzeyu
vLLM是一款高性能大型语言模型服务库,适用于AMD gfx906系列显卡,例如镭龙VII(Radeon VII)、MI50及MI60等型号,能够为这些AMD显卡提供高效的大型语言模型部署与运行支持,助力用户在相关硬件平台上实现高性能的AI推理与服务。
5 星标
10K+ 次下载
上次更新:2 个月前
novitalabs/nebula-py310-vllm
by
novitalabs
暂无描述
0 星标
10K+ 次下载
上次更新:3 个月前
novitalabs/vllm-openai
by
novitalabs
暂无描述
0 星标
10K+ 次下载
上次更新:3 天前
第 1 页
上一页
下一页