Terrarium 是由 Khoj AI 团队开发的一款容器化工具,其镜像托管在 GitHub Container Registry(ghcr.io)。作为一款面向 AI 应用部署的实用工具,它的核心目标是让普通用户和开发者能更简单、安全地在本地运行各类 AI 模型,无需依赖云端服务。 在功能上,Terrarium 主打「本地化部署」。用户通过拉取容器镜像,无需复杂的环境配置,就能快速启动 AI 模型——无论是文本处理、图像生成还是数据分析类模型,都能在本地设备上直接运行。这意味着数据无需上传至第三方服务器,从源头避免了云端传输可能带来的隐私泄露风险,尤其适合处理包含个人信息、企业机密的敏感数据。同时,它支持多种主流 AI 模型格式,用户可根据需求灵活切换,比如加载开源的语言模型、图像生成模型等,满足不同场景的使用需求。 作为容器化工具,Terrarium 的「易部署性」也很突出。容器技术本身隔离了运行环境,让它能跨平台兼容——无论是 Windows、macOS 还是 Linux 系统,用户只需简单的命令行操作,就能完成安装和启动,省去了手动配置依赖、解决版本冲突的麻烦。即便是对技术不太熟悉的用户,也能通过官方提供的基础教程快速上手。 隐私保护是它的另一大亮点。不同于依赖云端 API 的服务,Terrarium 让模型运行全程在本地闭环,数据处理、计算均在用户自己的设备上完成,不会留下云端存储痕迹。这对注重数据安全的场景尤其重要,比如企业内部的敏感文档分析、个人隐私数据处理等,都能通过它实现「数据不出本地」的安全保障。 此外,Terrarium 还兼顾了「灵活性」。它支持多种 AI 模型的加载与切换,开发者可基于此测试不同模型的性能,普通用户则能根据需求选择适合的工具——比如用本地大语言模型处理文档、用图像模型生成创意内容等,无需担心模型切换时的环境适配问题。 总的来说,Terrarium 降低了 AI 模型本地部署的门槛:容器化设计让技术小白也能轻松上手,本地化运行保障了数据安全,多模型支持又满足了多样化需求。无论是个人日常使用 AI 处理数据,还是企业部署敏感场景下的 AI 应用,或是开发者快速测试模型效果,它都能提供简单、可靠的解决方案,让 AI 技术的使用更贴近「实用」与「安全」的本质。
请登录使用轩辕镜像享受快速拉取体验,支持国内访问优化,速度提升
docker pull ghcr.io/khoj-ai/terrarium:latest探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录认证访问私有仓库
无需登录使用专属域名
Kubernetes 集群配置 Containerd
K3s 轻量级 Kubernetes 镜像加速
VS Code Dev Containers 配置
Podman 容器引擎配置
HPC 科学计算容器配置
ghcr、Quay、nvcr 等镜像仓库
Harbor Proxy Repository 对接专属域名
Portainer Registries 加速拉取
Nexus3 Docker Proxy 内网缓存
需要其他帮助?请查看我们的 常见问题Docker 镜像访问常见问题解答 或 提交工单
manifest unknown
no matching manifest(架构)
invalid tar header(解压)
TLS 证书失败
DNS 超时
410 Gone 排查
402 与流量用尽
401 认证失败
429 限流
D-Bus 凭证提示
413 与超大单层
来自真实用户的反馈,见证轩辕镜像的优质服务