轩辕镜像
轩辕镜像专业版
个人中心搜索镜像
交易
充值流量我的订单
工具
工单支持镜像收录Run 助手IP 归属地密码生成Npm 源Pip 源
帮助
常见问题我要吐槽
其他
关于我们网站地图

官方QQ群: 13763429

轩辕镜像
镜像详情
michaelf34/infinity
官方博客使用教程热门镜像工单支持
本站面向开发者与科研用户,提供开源镜像的搜索和下载加速服务。
所有镜像均来源于原始开源仓库,本站不存储、不修改、不传播任何镜像内容。
轩辕镜像 - 国内开发者首选的专业 Docker 镜像下载加速服务平台 - 官方QQ群:13763429 👈点击免费获得技术支持。
本站面向开发者与科研用户,提供开源镜像的搜索和下载加速服务。所有镜像均来源于原始开源仓库,本站不存储、不修改、不传播任何镜像内容。

本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com

infinity Docker 镜像下载 - 轩辕镜像

infinity 镜像详细信息和使用指南

infinity 镜像标签列表和版本信息

infinity 镜像拉取命令和加速下载

infinity 镜像使用说明和配置指南

Docker 镜像加速服务 - 轩辕镜像平台

国内开发者首选的 Docker 镜像加速平台

极速拉取 Docker 镜像服务

相关 Docker 镜像推荐

热门 Docker 镜像下载

infinity
michaelf34/infinity

infinity 镜像详细信息

infinity 镜像标签列表

infinity 镜像使用说明

infinity 镜像拉取命令

Docker 镜像加速服务

轩辕镜像平台优势

镜像下载指南

相关 Docker 镜像推荐

infinity是一个提供向量文本嵌入服务的REST API
5 收藏0 次下载activemichaelf34镜像
🚀轩辕镜像专业版更稳定💎一键安装 Docker 配置镜像源
中文简介版本下载
🚀轩辕镜像专业版更稳定💎一键安装 Docker 配置镜像源

infinity 镜像详细说明

infinity 使用指南

infinity 配置说明

infinity 官方文档

Infinity 向量嵌入服务

镜像概述和主要用途

Infinity 是一个高吞吐量、低延迟的 REST API,用于提供向量嵌入服务,支持所有 sentence-transformer 模型和框架。该项目基于 MIT 许可证开发,为 Gradient.ai 等平台提供推理支持。

Infinity 的核心功能是将文本转换为低维密集向量,这些向量可用于检索、分类、聚类或语义搜索等任务,也可用于为大型语言模型(LLM)提供向量数据库支持。

核心功能和特性

主要特性

  • 支持多种模型部署:可部署 MTEB 中的任何嵌入模型,兼容 SentenceTransformers 生态系统
  • 多推理后端支持:基于 torch、optimum(onnx/tensorrt) 和 CTranslate2 构建,利用 FlashAttention 优化性能
  • 多硬件支持:支持 NVIDIA CUDA、AMD ROCM、CPU、AWS INF2 和 APPLE MPS 加速器
  • 动态批处理:GPU 忙碌时将新嵌入请求排队,设备就绪后立即处理新请求
  • 经过验证的实现:单元测试和端到端测试确保嵌入结果准确性
  • 易用 API:基于 FastAPI 构建,集成 Swagger 文档,API 与 OpenAI 的嵌入规范对齐

最新功能

  • 2024/06:支持多模态(clip)、文本分类及环境变量配置
  • 2024/05:支持多模型部署(v2 CLI)和 API 密钥认证
  • 2024/03:实验性支持 int8(CPU/CUDA)和 fp8(H100/MI300)精度
  • 2024/01:支持 TensorRT/ONNX 推理
  • 动态批处理优化和多模型并发部署

使用场景和适用范围

适用场景

  • 语义搜索:将查询和文档转换为向量,实现高效相似性搜索
  • 文本分类:利用嵌入向量进行文本分类任务
  • 聚类分析:将相似文本聚合成组
  • 推荐系统:基于内容相似性提供推荐
  • 问答系统:提高问答系统的上下文理解能力
  • 向量数据库集成:为 Milvus、Pinecone 等向量数据库提供嵌入支持
  • LLM 应用增强:为大型语言模型提供上下文检索能力

支持的模型类型

  • 嵌入模型:所有 sentence-transformers 模型,如 BAAI/bge-small-en-v1.5、mixedbread-ai/mxbai-embed-large-v1 等
  • 重排序模型:如 mixedbread-ai/mxbai-rerank-xsmall-v1、BAAI/bge-reranker-base 等
  • 多模态模型:CLIP 模型,支持图像和文本同时编码
  • 文本分类模型:如 ProsusAI/finbert、SamLowe/roberta-base-go_emotions 等

详细的使用方法和配置说明

Docker 部署(推荐)

使用预构建的 Docker 容器是部署 Infinity 的推荐方式。确保已安装 nvidia-docker 以支持 GPU 加速。

基本部署命令

port=7997
model="BAAI/bge-small-en-v1.5"
volume=$PWD/data

docker run -it --gpus all \
 -v $volume:/app/.cache \
 -p $port:$port \
 michaelf34/infinity:latest \
 v2 \
 --model-id $model \
 --port $port

部署多个模型

port=7997
model1="michaelfeil/bge-small-en-v1.5"
model2="mixedbread-ai/mxbai-rerank-xsmall-v1"
volume=$PWD/data

docker run -it --gpus all \
 -v $volume:/app/.cache \
 -p $port:$port \
 michaelf34/infinity:latest \
 v2 \
 --model-id $model1 \
 --model-id $model2 \
 --port $port

环境变量配置

  • HF_HOME: 容器内缓存路径,默认为 /app/.cache
  • INFINITY_MODEL_ID: 模型ID,多个模型用分号分隔
  • INFINITY_PORT: 服务端口号

CLI 参数说明

使用 --help 命令查看所有可用参数:

docker run michaelf34/infinity:latest v2 --help

主要参数:

  • --model-id: 模型ID或路径,可指定多个
  • --port: 服务端口号
  • --engine: 推理引擎,可选值: torch, optimum, ctranslate2
  • --embedding-dtype: 嵌入输出数据类型
  • --dtype: 模型计算数据类型
  • --api-key: API密钥认证
  • --host: 绑定主机地址

API 使用示例

嵌入生成

curl -X POST "http://localhost:7997/v1/embeddings" \
  -H "Content-Type: application/json" \
  -d '{
    "input": ["这是一个测试句子", "巴黎在法国"],
    "model": "BAAI/bge-small-en-v1.5"
  }'

重排序

curl -X POST "http://localhost:7997/v1/rerank" \
  -H "Content-Type: application/json" \
  -d '{
    "query": "什么是Python包infinity_emb?",
    "documents": [
      "这是一个与Python包infinity_emb无关的文档",
      "巴黎在法国!",
      "infinity_emb是一个用于句子嵌入和重排序的Python包"
    ],
    "model": "mixedbread-ai/mxbai-rerank-xsmall-v1"
  }'

Python API 使用

除了 REST API,还可以通过 Python API 直接使用 Infinity:

import asyncio
from infinity_emb import AsyncEngineArray, EngineArgs

sentences = ["通过Infinity嵌入这句话", "巴黎在法国。"]
array = AsyncEngineArray.from_args([
  EngineArgs(model_name_or_path="BAAI/bge-small-en-v1.5", engine="torch")
])

async def embed_text(): 
    async with array[0]: 
        embeddings, usage = await array[0].embed(sentences=sentences)
        print("嵌入结果:", embeddings)
        print("使用情况:", usage)

asyncio.run(embed_text())

多模型部署

从版本 0.0.34 开始,Infinity 支持同时部署多个模型:

docker run -it --gpus all \
 -p 7997:7997 \
 michaelf34/infinity:latest \
 v2 \
 --model-id BAAI/bge-small-en-v1.5 \
 --model-id mixedbread-ai/mxbai-rerank-xsmall-v1 \
 --port 7997

集成方案

Infinity 可与多种工具和框架集成:

  • Serverless 部署:Runpod 上的无服务器部署
  • Langchain 集成:作为 Langchain 的嵌入组件
  • 向量数据库:与 Milvus、Qdrant 等向量数据库配合使用
  • 云部署:通过 dstack 在云平台上部署
  • RAG 应用:为检索增强生成应用提供支持

常见问题

什么是嵌入模型?

嵌入模型可以将任何文本映射到低维密集向量,用于检索、分类、聚类或语义搜索等任务,也可用于大型语言模型的向量数据库。最知名的架构是仅编码器的Transformer(如BERT),最流行的实现包括SentenceTransformers。

支持哪些模型?

所有 sentence-transformers 组织的模型都受支持。使用不同引擎时要求不同:

  • --engine torch: 模型必须与 SentenceTransformers 和 AutoModel 兼容
  • --engine optimum: 必须有 ONNX 文件,推荐使用 Xenova 提供的模型
  • --engine ctranslate2: 仅支持 BERT 模型

最新的模型趋势可查看 MTEB 排行榜:[***]

如何与 Langchain 集成?

Infinity 已正式集成到 Langchain(需要 langchain>=0.342):

from langchain.embeddings.infinity import InfinityEmbeddings
from langchain.docstore.document import Document

documents = [Document(page_content="Hello world!", metadata={"source": "unknown"})]

emb_model = InfinityEmbeddings(model="BAAI/bge-small", infinity_api_url="http://localhost:7997/v1")
print(emb_model.embed_documents([doc.page_content for doc in documents]))

文档和资源

  • 完整文档:[***]
  • 启动后 Swagger UI:http://localhost:7997/docs
  • GitHub 仓库:[***]
查看更多 infinity 相关镜像 →
infiniflow/infinity logo
infiniflow/infinity
by infiniflow
AI原生数据库是一种从架构设计之初即深度融合人工智能技术的新型数据库系统,它通过内置机器学习算法实现数据管理全流程的智能化,包括自动化索引优化、实时异常检测、自适应查询加速及动态资源调配,能高效处理结构化与非结构化混合数据,支持大规模并行计算与分布式存储,显著提升数据处理效率与决策支持能力,广泛适用于智能推荐、实时风控、科学计算等需快速响应与深度数据分析的场景。
350K+ pulls
上次更新:4 小时前

常见问题

轩辕镜像免费版与专业版有什么区别?

免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。

轩辕镜像免费版与专业版有分别支持哪些镜像?

免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。

流量耗尽错误提示

当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。

410 错误问题

通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。

manifest unknown 错误

先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。

镜像拉取成功后,如何去掉轩辕镜像域名前缀?

使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。

查看全部问题→

轩辕镜像下载加速使用手册

探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式

🔐

登录方式进行 Docker 镜像下载加速教程

通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤

🐧

Linux Docker 镜像下载加速教程

在 Linux 系统上配置轩辕镜像源,支持主流发行版

🖥️

Windows/Mac Docker 镜像下载加速教程

在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统

📦

Docker Compose 镜像下载加速教程

在 Docker Compose 中使用轩辕镜像加速,支持容器编排

📋

K8s containerd 镜像下载加速教程

在 k8s 中配置 containerd 使用轩辕镜像加速

🔧

宝塔面板 Docker 镜像下载加速教程

在宝塔面板中配置轩辕镜像加速,提升服务器管理效率

💾

群晖 NAS Docker 镜像下载加速教程

在 Synology 群晖NAS系统中配置轩辕镜像加速

🐂

飞牛fnOS Docker 镜像下载加速教程

在飞牛fnOS系统中配置轩辕镜像加速

📱

极空间 NAS Docker 镜像下载加速教程

在极空间NAS中配置轩辕镜像加速

⚡

爱快路由 ikuai Docker 镜像下载加速教程

在爱快ikuai系统中配置轩辕镜像加速

🔗

绿联 NAS Docker 镜像下载加速教程

在绿联NAS系统中配置轩辕镜像加速

🌐

威联通 NAS Docker 镜像下载加速教程

在威联通NAS系统中配置轩辕镜像加速

📦

Podman Docker 镜像下载加速教程

在 Podman 中配置轩辕镜像加速,支持多系统

📚

ghcr、Quay、nvcr、k8s、gcr 等仓库下载镜像加速教程

配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤

🚀

专属域名方式进行 Docker 镜像下载加速教程

无需登录即可使用轩辕镜像加速服务,更加便捷高效

需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429

商务:17300950906
|©2024-2025 源码跳动
商务合作电话:17300950906|Copyright © 2024-2025 杭州源码跳动科技有限公司. All rights reserved.