kotaemon 是 GitHub 容器注册表(ghcr.io)中由 cinnamon 项目维护的一款本地化 AI 助手容器镜像。它的核心定位是为用户提供轻量、隐私优先的本地 AI 交互工具,无需依赖云端服务即可在个人设备或私有服务器上快速部署使用。
从功能来看,kotaemon 支持接入多种主流开源大语言模型,比如 LLaMA、Mistral、Qwen 等,用户可根据硬件配置选择适配的模型参数规模(如 7B、13B 等)。它提供了两种基础交互方式:命令行界面适合开发者快速调试和脚本集成,Web 界面则方便普通用户通过浏览器进行对话式操作,界面设计简洁,支持上下文记忆和对话历史保存。此外,镜像内置了模型自动下载与缓存机制,首次启动时会根据用户配置拉取指定模型文件,后续使用无需重复下载,节省带宽和存储资源。
隐私保护是 kotaemon 的显著特点。所有对话数据和模型运算均在本地设备完成,不会上传至第三方服务器,尤其适合处理敏感信息(如工作文档、个人笔记等)的场景。容器化设计让部署流程变得简单,用户只需通过 Docker 命令拉取镜像并挂载本地模型存储目录,即可一键启动服务,无需手动配置复杂的运行环境依赖(如 Python 库、CUDA 驱动等)。
对于有扩展需求的用户,kotaemon 还预留了插件接口,支持通过简单配置接入第三方工具,比如本地文件解析(TXT、PDF 等格式)、API 调用转发等,进一步扩展 AI 助手的实用功能。目前镜像已适配 x86 和 ARM 架构,兼容 Windows(WSL2)、macOS(Docker Desktop)及 Linux 系统,硬件要求灵活,低配设备可运行小参数模型,高性能设备则能体验更流畅的对话响应。
总的来说,kotaemon 更像是一个“开箱即用的本地 AI 工具箱”,尤其适合注重数据隐私的个人用户、需要本地化部署的开发者,以及希望在无网络环境下使用 AI 能力的场景。
请登录使用轩辕镜像享受快速拉取体验,支持国内加速,速度提升50倍
docker pull ghcr.io/cinnamon/kotaemon:latest来自真实用户的反馈,见证轩辕镜像的优质服务
免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。
免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。
当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。
通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。
先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。
使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录认证访问私有仓库
在 Linux 系统配置镜像加速服务
在 Docker Desktop 配置镜像加速
Docker Compose 项目配置加速
Kubernetes 集群配置 Containerd
在宝塔面板一键配置镜像加速
Synology 群晖 NAS 配置加速
飞牛 fnOS 系统配置镜像加速
极空间 NAS 系统配置加速服务
爱快 iKuai 路由系统配置加速
绿联 NAS 系统配置镜像加速
QNAP 威联通 NAS 配置加速
Podman 容器引擎配置加速
HPC 科学计算容器配置加速
ghcr、Quay、nvcr 等镜像仓库
无需登录使用专属域名加速
需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429