专属域名
文档搜索
轩辕助手
Run助手
邀请有礼
返回顶部
快速返回页面顶部
收起
收起工具栏
轩辕镜像 官方专业版
轩辕镜像 官方专业版轩辕镜像 官方专业版官方专业版
首页个人中心搜索镜像

交易
充值流量我的订单
工具
提交工单镜像收录一键安装
Npm 源Pip 源Homebrew 源
帮助
常见问题
其他
关于我们网站地图

官方QQ群: 1072982923

vllm/vllm-openai logo
vllm/vllm-openai
vllm/vllm-openai:vLLM 高性能大模型推理框架的官方 Docker 镜像,封装 OpenAI API 兼容的推理服务;支持 PagedAttention 与连续批处理,吞吐量可达传统引擎 10-24 倍;支持 50+ 开源模型与量化方案,适用开源模型部署、OpenAI 应用本地化与高并发生产场景。
232 星标10M+ 次下载
上次更新:未知
lmcache/vllm-openai logo
lmcache/vllm-openai
暂无描述
8 星标100K+ 次下载
上次更新:未知
novitalabs/vllm-openai logo
novitalabs/vllm-openai
暂无描述
0 星标10K+ 次下载
上次更新:未知
dengcao/vllm-openai logo
dengcao/vllm-openai
vLLM是一个快速且易用的大语言模型推理与服务库,最初由加州大学伯克利分校开发,采用PagedAttention技术优化内存使用,支持高吞吐量、低延迟的推理,兼容Hugging Face模型格式,可轻松部署各类LLM,适用于科研和生产环境,显著提升大语言模型的服务效率。
2 星标10K+ 次下载
上次更新:未知
第 1 页
轩辕镜像
镜像搜索
...
vllm-openai
官方博客Docker 镜像使用技巧与技术博客
热门镜像查看热门 Docker 镜像推荐
一键安装一键安装 Docker 并配置镜像源
咨询镜像拉取问题请 提交工单,官方技术交流群:1072982923
轩辕镜像面向开发者与科研用户,提供开源镜像的搜索和访问支持。所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
咨询镜像拉取问题请提交工单,官方技术交流群:
轩辕镜像面向开发者与科研用户,提供开源镜像的搜索和访问支持。所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
官方邮箱:点击复制邮箱
©2024-2026 源码跳动
官方邮箱:点击复制邮箱Copyright © 2024-2026 杭州源码跳动科技有限公司. All rights reserved.