专属域名
文档搜索
提交工单
轩辕助手
Run助手
返回顶部
快速返回页面顶部
收起
收起工具栏

mintplexlabs/anythingllm Docker 镜像 - 轩辕镜像

镜像简介

这是一款集多用户协作与数据私有化为一体的RAG与AI智能体应用程序及用户界面,支持适配任何大型语言模型,整合检索增强生成与智能体交互功能,提供便捷高效的一站式AI服务体验,满足用户在不同场景下的智能检索、对话交互等需求。

镜像统计信息

收藏数: 142

下载次数: 2351118

状态: active

发布者: mintplexlabs

类型: 镜像

anythingllm
mintplexlabs/anythingllm
这是一款集多用户协作与数据私有化为一体的RAG与AI智能体应用程序及用户界面,支持适配任何大型语言模型,整合检索增强生成与智能体交互功能,提供便捷高效的一站式AI服务体验,满足用户在不同场景下的智能检索、对话交互等需求。
142 收藏0 次下载activemintplexlabs镜像
🚀专业版镜像服务,面向生产环境设计
版本下载
🚀专业版镜像服务,面向生产环境设计

AnythingLLM 介绍

概述

AnythingLLM 是一款全栈AI应用,可让你与文档对话、使用AI代理,支持高度自定义配置、多用户协作,且无需复杂部署。桌面版已开放公开测试,可立即下载。

产品定位

AnythingLLM 支持接入主流商用或开源LLM及向量数据库,帮助你构建私有化“***”——既可本地运行,也可远程托管,能智能对话各类文档。核心设计围绕“工作区”(workspace)展开:工作区类似对话线程,但支持文档隔离存储,不同工作区互不干扰,确保上下文独立清晰。

核心功能

  • 多用户与权限管理:支持多人协作,可配置不同权限
  • 工作区内置AI代理:支持网页浏览、代码运行等扩展能力
  • 可嵌入网站的聊天组件:提供自定义嵌入工具,方便集成到个人网站
  • 多文档类型支持:兼容PDF、TXT、DOCX等格式
  • 可视化文档管理:通过简洁UI直接管理向量数据库中的文档
  • 两种聊天模式:
    • 对话模式:保留历史问答,支持上下文连续交互
    • 查询模式:针对文档内容进行简单问答
  • 引用标注:聊天中自动标注内容来源
  • 云部署就绪:支持直接部署到云端环境
  • 自定义LLM接入:支持“自带模型”(Bring your own LLM)
  • 成本优化:大幅降低大文档嵌入成本,避免重复处理,比同类工具节省90%费用
  • 开发者API:提供完整接口,支持自定义集成

支持的模型与数据库

语言模型(LLM)
  • 开源模型:llama.cpp兼容模型、Ollama、LM Studio、LocalAI、Mistral、KoboldCPP、Text Generation Web UI等
  • 商用服务:OpenAI、Azure OpenAI、Anthropic、Google Gemini Pro、Hugging Face、Together AI、Perplexity、OpenRouter、Groq、Cohere、LiteLLM等
嵌入模型
  • 默认:AnythingLLM原生嵌入模型
  • 其他:OpenAI、Azure OpenAI、LocalAI、Ollama、LM Studio、Cohere
音频处理
  • 转录:默认内置模型、OpenAI
  • 文本转语音(TTS):浏览器原生(默认)、OpenAI TTS、ElevenLabs
  • 语音转文本(STT):浏览器原生(默认)
向量数据库
  • 默认:LanceDB
  • 其他:Astra DB、Pinecone、Chroma、Weaviate、Qdrant、Milvus、Zilliz

技术架构

项目采用monorepo结构,包含以下核心模块:

  • frontend:基于ViteJS+React的前端界面,用于创建和管理LLM所需内容
  • server:NodeJS+Express后端服务,处理交互逻辑、向量数据库管理及LLM调用
  • docker:Docker构建与部署相关配置
  • collector:NodeJS+Express服务,负责解析和处理用户上传的文档

自托管指南

如需搭建生产环境实例(无Docker),可参考《裸金属部署文档》。

版权信息

© 2023 Mintplex Labs
本项目基于MIT许可证开源。

相关 Docker 镜像推荐

以下是 mintplexlabs/anythingllm 相关的常用 Docker 镜像,适用于 不同场景 等不同场景:

  • infiniflow/ragflow Docker 镜像说明(RAG 知识库系统)
  • langgenius/dify-api Docker 镜像说明(AI 应用开发框架)
  • elestio/lobe-chat Docker 镜像说明
  • lobehub/lobe-chat Docker 镜像说明(AI 聊天应用,支持多种模型)

镜像拉取方式

您可以使用以下命令拉取该镜像。请将 <标签> 替换为具体的标签版本。如需查看所有可用标签版本,请访问 版本下载页面。

国内拉取方式

docker pull docker.xuanyuan.run/mintplexlabs/anythingllm:<标签>

使用方法:

  • 登录认证方式
  • 免认证方式

官方拉取方式

docker pull mintplexlabs/anythingllm:<标签>

轩辕镜像配置手册

探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式

登录仓库拉取

通过 Docker 登录认证访问私有仓库

Linux

在 Linux 系统配置镜像服务

Windows/Mac

在 Docker Desktop 配置镜像

Docker Compose

Docker Compose 项目配置

K8s Containerd

Kubernetes 集群配置 Containerd

K3s

K3s 轻量级 Kubernetes 镜像加速

宝塔面板

在宝塔面板一键配置镜像

群晖

Synology 群晖 NAS 配置

飞牛

飞牛 fnOS 系统配置镜像

极空间

极空间 NAS 系统配置服务

爱快路由

爱快 iKuai 路由系统配置

绿联

绿联 NAS 系统配置镜像

威联通

QNAP 威联通 NAS 配置

Podman

Podman 容器引擎配置

Singularity/Apptainer

HPC 科学计算容器配置

其他仓库配置

ghcr、Quay、nvcr 等镜像仓库

专属域名拉取

无需登录使用专属域名

需要其他帮助?请查看我们的 常见问题Docker 镜像访问常见问题解答 或 提交工单

镜像拉取常见问题

轩辕镜像免费版与专业版有什么区别?

免费版仅支持 Docker Hub 访问,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。

轩辕镜像支持哪些镜像仓库?

专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等;免费版仅支持 docker.io。

流量耗尽错误提示

当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。

410 错误问题

通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。

manifest unknown 错误

先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。

镜像拉取成功后,如何去掉轩辕镜像域名前缀?

使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。

查看全部问题→

用户好评

来自真实用户的反馈,见证轩辕镜像的优质服务

oldzhang的头像

oldzhang

运维工程师

Linux服务器

5

"Docker访问体验非常流畅,大镜像也能快速完成下载。"

轩辕镜像
镜像详情
...
mintplexlabs/anythingllm
官方博客Docker 镜像使用技巧与技术博客
热门镜像查看热门 Docker 镜像推荐
一键安装一键安装 Docker 并配置镜像源
提交工单
免费获取在线技术支持请 提交工单,官方QQ群:13763429 。
轩辕镜像面向开发者与科研用户,提供开源镜像的搜索和访问支持。所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
免费获取在线技术支持请提交工单,官方QQ群: 。
轩辕镜像面向开发者与科研用户,提供开源镜像的搜索和访问支持。所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
官方邮箱:点击复制邮箱
©2024-2026 源码跳动
官方邮箱:点击复制邮箱Copyright © 2024-2025 杭州源码跳动科技有限公司. All rights reserved.
轩辕镜像 官方专业版 Logo
轩辕镜像轩辕镜像官方专业版
首页个人中心搜索镜像
交易
充值流量我的订单
工具
提交工单镜像收录一键安装
Npm 源Pip 源Homebrew 源
帮助
常见问题
其他
关于我们网站地图

官方QQ群: 13763429