轩辕镜像
轩辕镜像专业版
个人中心搜索镜像
交易
充值流量我的订单
工具
工单支持镜像收录Run 助手IP 归属地密码生成Npm 源Pip 源
帮助
常见问题我要吐槽
其他
关于我们网站地图

官方QQ群: 13763429

轩辕镜像
镜像详情
chatimage/chatchat
官方博客使用教程热门镜像工单支持
本站面向开发者与科研用户,提供开源镜像的搜索和下载加速服务。
所有镜像均来源于原始开源仓库,本站不存储、不修改、不传播任何镜像内容。
轩辕镜像 - 国内开发者首选的专业 Docker 镜像下载加速服务平台 - 官方QQ群:13763429 👈点击免费获得技术支持。
本站面向开发者与科研用户,提供开源镜像的搜索和下载加速服务。所有镜像均来源于原始开源仓库,本站不存储、不修改、不传播任何镜像内容。

本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com

chatchat Docker 镜像下载 - 轩辕镜像

chatchat 镜像详细信息和使用指南

chatchat 镜像标签列表和版本信息

chatchat 镜像拉取命令和加速下载

chatchat 镜像使用说明和配置指南

Docker 镜像加速服务 - 轩辕镜像平台

国内开发者首选的 Docker 镜像加速平台

极速拉取 Docker 镜像服务

相关 Docker 镜像推荐

热门 Docker 镜像下载

chatchat
chatimage/chatchat

chatchat 镜像详细信息

chatchat 镜像标签列表

chatchat 镜像使用说明

chatchat 镜像拉取命令

Docker 镜像加速服务

轩辕镜像平台优势

镜像下载指南

相关 Docker 镜像推荐

Lang***Chatchat是一个基于LangChain和大语言模型的本地部署知识库问答系统镜像,支持将文档构建为知识库并进行智能问答,适用于企业和个人的文档检索与交互需求。
6 收藏0 次下载activechatimage镜像
🚀轩辕镜像专业版更稳定💎一键安装 Docker 配置镜像源
中文简介版本下载
🚀轩辕镜像专业版更稳定💎一键安装 Docker 配置镜像源

chatchat 镜像详细说明

chatchat 使用指南

chatchat 配置说明

chatchat 官方文档

Lang***Chatchat 镜像文档

镜像概述和主要用途

LangChatchat 镜像是集成LangChain框架与大语言模型(如ChatGLM、LLaMA等)的容器化知识库问答解决方案。该镜像提供本地部署能力,支持将PDF、Markdown等多格式文档转化为结构化知识库,通过自然语言交互实现智能问答。主要用于企业内部文档检索、个人学资料管理、技术文档智能查询等场景,保障数据本地化处理与隐私安全。

核心功能和特性

核心功能

  • 知识库构建:批量导入多格式文档(PDF、Word、Markdown、TXT等),自动完成文本提取、分段及向量化处理。
  • 智能问答:基于大语言模型理解知识库内容,支持上下文关联与多轮对话,提供准确相关的回答。
  • 模型适配:兼容主流开源大语言模型(ChatGLM系列、LLaMA系列、Qwen系列等),支持本地模型加载与推理。
  • 可视化管理:内置Web界面,支持文档上传、知识库维护、问答交互等操作的可视化管理。

特性

  • 本地部署:全流程本地化运行,无需依赖外部API,保障数据隐私与安全。
  • 轻量化配置:通过环境变量快速调整核心参数,简化部署流程。
  • 扩展性强:支持自定义模型路径、向量数据库(FAISS、Chroma等)及知识库存储路径。
  • 多场景适配:兼容CPU/GPU运行环境,满足不同硬件配置需求。

使用场景和适用范围

使用场景

  • 企业内部知识库:构建企业规章制度、技术手册、产品文档的智能检索系统,提升信息获取效率。
  • 个人学助手**:将教材、论文、笔记转化为知识库,辅助快速查询知识点与学**内容。
  • 技术文档查询:针对API文档、框架手册等技术资料,提供精准的代码示例与使用说明查询。
  • 客服辅助系统:快速检索产品FAQ或故障处理文档,为客服提供标准化回答支持。

适用范围

  • 对数据隐私有高要求,需本地处理文档与问答的场景。
  • 需低成本构建智能问答系统的中小企业及个人用户。
  • 基于开源模型与文档构建定制化知识库的开发者。

使用方法和配置说明

前提条件

  • 安装Docker 20.10+环境,GPU模式需额外安装nvidia-docker。
  • 本地预留足够存储空间(模型文件通常为GB级,根据模型大小调整)。

Docker 快速启动

CPU模式

docker run -d \
  --name lang***chatchat \
  -p 7860:7860 \
  -v /path/to/local/models:/app/models \
  -v /path/to/local/knowledge:/app/knowledge \
  -e MODEL_PATH=/app/models/chatglm3-6b \
  -e VECTOR_DB=faiss \
  chatchat-space/lang***chatchat:latest

GPU模式(需NVIDIA GPU支持)

docker run -d \
  --name lang***chatchat-gpu \
  --gpus all \
  -p 7860:7860 \
  -v /path/to/local/models:/app/models \
  -v /path/to/local/knowledge:/app/knowledge \
  -e MODEL_PATH=/app/models/chatglm3-6b \
  -e VECTOR_DB=faiss \
  -e DEVICE=gpu \
  chatchat-space/lang***chatchat:latest

Docker Compose 配置示例

创建docker-compose.yml文件:

version: '3'
services:
  lang***chatchat:
    image: chatchat-space/lang***chatchat:latest
    container_name: lang***chatchat
    ports:
      - "7860:7860"  # Web界面端口
      - "8000:8000"  # API服务端口(可选)
    volumes:
      - ./models:/app/models  # 本地模型存储目录
      - ./knowledge:/app/knowledge  # 知识库数据目录
      - ./config:/app/config  # 自定义配置目录(可选)
    environment:
      - MODEL_PATH=/app/models/chatglm3-6b  # 模型路径(容器内)
      - VECTOR_DB=faiss  # 向量数据库类型
      - DEVICE=cpu  # 运行设备(cpu/gpu)
      - WEBUI_PORT=7860  # Web界面端口
      - API_PORT=8000  # API服务端口
      - EMBEDDING_MODEL=bge-large-zh  # 嵌入模型名称
    restart: unless-stopped

启动命令:docker-compose up -d

核心配置参数说明

环境变量

环境变量名说明默认值
MODEL_PATH本地模型文件路径(容器内绝对路径)/app/models
VECTOR_DB向量数据库类型(faiss/chroma等)faiss
DEVICE运行设备(cpu/gpu)cpu
WEBUI_PORTWeb管理界面端口7860
API_PORTAPI服务端口(如需对外提供API)8000
KNOWLEDGE_PATH知识库文档存储路径(容器内)/app/knowledge
EMBEDDING_MODEL嵌入模型名称(如bge-large-zh)bge-large-zh

数据卷映射

本地路径示例容器内路径说明
./models/app/models本地模型存储目录,需预先放置模型文件
./knowledge/app/knowledge知识库文档及向量数据存储目录
./config/app/config自定义配置文件目录(可选)

访问与使用

容器启动后,通过浏览器访问 http://localhost:7860 打开Web界面:

  1. 上传文档:在"知识库管理"模块上传文档(支持PDF、Markdown等格式)。
  2. 构建知识库:系统自动提取文本并向量化,生成知识库索引。
  3. 开始问答:在"对话"模块输入问题,系统基于知识库内容生成回答。

注意事项

  • 模型准备:需提前下载大语言模型及嵌入模型文件,放置于MODEL_PATH映射的本地目录。
  • 性能要求:GPU模式推荐显存≥10GB;CPU模式建议内存≥16GB以保证运行流畅。
  • 版本兼容性:使用最新镜像版本,并确保本地模型与镜像支持的模型版本兼容。
  • 数据安全:所有数据本地化存储,无需上传至云端,适用于对隐私要求高的场景。
查看更多 chatchat 相关镜像 →

常见问题

轩辕镜像免费版与专业版有什么区别?

免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。

轩辕镜像免费版与专业版有分别支持哪些镜像?

免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。

流量耗尽错误提示

当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。

410 错误问题

通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。

manifest unknown 错误

先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。

镜像拉取成功后,如何去掉轩辕镜像域名前缀?

使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。

查看全部问题→

轩辕镜像下载加速使用手册

探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式

🔐

登录方式进行 Docker 镜像下载加速教程

通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤

🐧

Linux Docker 镜像下载加速教程

在 Linux 系统上配置轩辕镜像源,支持主流发行版

🖥️

Windows/Mac Docker 镜像下载加速教程

在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统

📦

Docker Compose 镜像下载加速教程

在 Docker Compose 中使用轩辕镜像加速,支持容器编排

📋

K8s containerd 镜像下载加速教程

在 k8s 中配置 containerd 使用轩辕镜像加速

🔧

宝塔面板 Docker 镜像下载加速教程

在宝塔面板中配置轩辕镜像加速,提升服务器管理效率

💾

群晖 NAS Docker 镜像下载加速教程

在 Synology 群晖NAS系统中配置轩辕镜像加速

🐂

飞牛fnOS Docker 镜像下载加速教程

在飞牛fnOS系统中配置轩辕镜像加速

📱

极空间 NAS Docker 镜像下载加速教程

在极空间NAS中配置轩辕镜像加速

⚡

爱快路由 ikuai Docker 镜像下载加速教程

在爱快ikuai系统中配置轩辕镜像加速

🔗

绿联 NAS Docker 镜像下载加速教程

在绿联NAS系统中配置轩辕镜像加速

🌐

威联通 NAS Docker 镜像下载加速教程

在威联通NAS系统中配置轩辕镜像加速

📦

Podman Docker 镜像下载加速教程

在 Podman 中配置轩辕镜像加速,支持多系统

📚

ghcr、Quay、nvcr、k8s、gcr 等仓库下载镜像加速教程

配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤

🚀

专属域名方式进行 Docker 镜像下载加速教程

无需登录即可使用轩辕镜像加速服务,更加便捷高效

需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429

商务:17300950906
|©2024-2025 源码跳动
商务合作电话:17300950906|Copyright © 2024-2025 杭州源码跳动科技有限公司. All rights reserved.