专属域名
文档搜索
轩辕助手
Run助手
邀请有礼
返回顶部
快速返回页面顶部
收起
收起工具栏
轩辕镜像 官方专业版
轩辕镜像 官方专业版轩辕镜像 官方专业版官方专业版
首页个人中心搜索镜像

交易
充值流量我的订单
工具
提交工单镜像收录一键安装
Npm 源Pip 源Homebrew 源
帮助
常见问题
其他
关于我们网站地图

官方QQ群: 1072982923

热门搜索:openclaw🔥nginx🔥redis🔥mysqlopenjdkcursorweb2apimemgraphzabbixetcdubuntucorednsjdk
openeuler/llm-textgen logo
openeuler/llm-textgen
openeuler
暂无描述
437 次下载6 个月前更新
opea/llm-textgen logo
opea/llm-textgen
opea
OPEA LLM文本生成微服务,用于GenAI应用,处理查询字符串与重排文档,构建提示并通过已运行的LLM服务(如TGI/vLLM)执行推理,生成上下文感知响应,仅需配置环境变量即可集成。
1万+ 次下载1 天前更新
第 1 页

相关博客

MinerU Docker 部署指南:PDF 结构化解析服务实践

MinerU 是一款面向开发者与科研用户的容器化应用,专为 vLLM 后端服务设计,提供高效的文档解析与处理能力。通过 Docker 容器化部署 MinerU,可以简化安装流程、确保环境一致性,并便于在不同环境中快速迁移和扩展。 本指南将详细介绍 MinerU 的 Docker 容器化部署方案,包括环境准备、镜像拉取、容器部署、功能测试及生产环境配置建议,旨在帮助用户快速搭建稳定可靠的 MinerU 服务。

MinerU,PDF,人工智能,vLLM2025/12/30

VLLM Docker 容器化部署指南:在 NVIDIA Jetson 平台高效运行大语言模型推理服务

VLLM是一个高效的开源大语言模型(LLM)推理服务框架,通过创新的PagedAttention技术实现高吞吐量和低延迟的推理性能。本文介绍的`dustynv/vllm`镜像是针对NVIDIA Jetson平台优化的容器化版本,由[dustynv/jetson-containers](https://github.com/dustynv/jetson-containers)项目构建,专为边缘计算场景设计,支持在资源受限的嵌入式设备上部署高性能LLM推理服务。

Docker,VLLM2025/12/2

NANO_LLM Docker 容器化部署指南

NANO_LLM是一个轻量级、优化的大型语言模型(LLM)推理和多模态智能体库,专为边缘设备和高性能计算环境设计。该库提供了对多种深度学习框架的支持,包括PyTorch、TensorRT和ONNX Runtime,能够高效运行各类语言模型和多模态应用。

Docker,NANO_LLM2025/11/17

vllm-openai Docker 部署全手册

从个人开发者测试开源大模型,到企业搭建私有推理服务,vllm-openai 都是高效且低成本的选择。本教程将从核心概念讲起,逐步覆盖 Docker 环境准备、镜像拉取、多场景部署、结果验证及问题排查,无论你是初学者还是高级工程师,都能照着步骤完成部署。

Docker,vllm-openai2025/10/9

verl Docker 容器化部署手册

无论你是刚接触大模型工具的初学者,还是需要高效管理训练任务的高级工程师,本教程都将带你一步步完成 verlai/verl 镜像的 Docker 部署——从工具认知、环境搭建到多场景部署实践,每个步骤均配备完整命令与详细说明,确保照着做就能成。

Docker,verl2025/10/8
轩辕镜像
镜像搜索
...
llm-textgen
博客公告Docker 镜像公告与技术博客
热门镜像查看热门 Docker 镜像推荐
一键安装一键安装 Docker 并配置镜像源
镜像拉取问题咨询请 提交工单,官方技术交流群:1072982923。轩辕镜像所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
镜像拉取问题咨询请提交工单,官方技术交流群:。轩辕镜像所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
官方邮箱:点击复制邮箱
©2024-2026 源码跳动
官方邮箱:点击复制邮箱Copyright © 2024-2026 杭州源码跳动科技有限公司. All rights reserved.