本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com

LocalAI是一款免费开源的OpenAI替代品,提供与OpenAI(及Elevenlabs、Anthropic等)API规范兼容的RESTful API,支持本地AI推理。其核心功能是作为 drop-in 替代方案,允许在消费级硬件上运行大型语言模型(LLM)、生成图像、音频等内容,无需依赖GPU,适用于本地或私有环境部署,保护数据隐私并降低外部API依赖。
通过官方一键安装脚本快速部署:
curl [***] | sh
根据硬件环境选择以下镜像类型:
适用于无GPU环境,镜像体积较小:
docker run -ti --name local-ai -p 8080:8080 localai/localai:latest-cpu
参数说明:
-ti:启用交互式终端--name local-ai:指定容器名称为local-ai-p 8080:8080:端口映射(主机端口:容器端口),WebUI和API通过8080端口访问localai/localai:latest-cpu:CPU专用镜像标签需预先安装Nvidia Docker运行时,支持CUDA 12:
docker run -ti --name local-ai -p 8080:8080 --gpus all localai/localai:latest-gpu-nvidia-cuda-12
参数说明:
--gpus all:启用所有GPU资源(需Nvidia Docker支持)包含CPU和GPU支持,功能全面但镜像体积较大:
docker run -ti --name local-ai -p 8080:8080 localai/localai:latest
预下载一组常用模型,开箱即用:
docker run -ti --name local-ai -p 8080:8080 localai/localai:latest-aio-cpu
通过local-ai run命令加载模型,支持多种来源:
模型库提供多种预配置模型,可通过名称加载(需先安装local-ai客户端):
# 列出可用模型 local-ai models list # 加载指定模型(如llama-3.2-1b-instruct量化版本) local-ai run llama-3.2-1b-instruct:q4_k_m
直接从Hugging Face加载GGUF格式模型:
local-ai run huggingface://TheBloke/phi-2-GGUF/phi-2.Q8_0.gguf
加载Ollama格式模型:
local-ai run ollama://gemma:2b
通过远程配置文件加载模型:
local-ai run [***]
从标准OCI注册表(如Docker Hub)加载模型:
local-ai run oci://localai/phi-2:latest
LocalAI支持通过YAML配置文件自定义模型参数、API行为等。配置文件通常放置在模型目录或指定的配置路径,可定义模型名称、推理参数、上下文窗口大小等。详细配置选项请参考官方文档。
容器启动后,可通过以下方式访问LocalAI服务:
http://localhost:8080,通过界面进行模型管理、对话交互、图像/音频生成等操作。http://localhost:8080/v1 访问兼容OpenAI的API端点(如/v1/chat/completions、/v1/images/generations)。LocalAI属于Local Stack Family,与以下工具协同工作:
LocalAGI是一个强大的本地AI代理管理平台,作为OpenAI Responses API的替代品,增强了高级代理功能。
LocalRecall是一个RESTful API和知识库管理系统,为AI代理提供持久化内存和存储能力。
免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。
免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。
当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。
通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。
先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。
使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤
在 Linux 系统上配置轩辕镜像源,支持主流发行版
在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统
在 Docker Compose 中使用轩辕镜像加速,支持容器编排
在 k8s 中配置 containerd 使用轩辕镜像加速
在宝塔面板中配置轩辕镜像加速,提升服务器管理效率
在 Synology 群晖NAS系统中配置轩辕镜像加速
在飞牛fnOS系统中配置轩辕镜像加速
在极空间NAS中配置轩辕镜像加速
在爱快ikuai系统中配置轩辕镜像加速
在绿联NAS系统中配置轩辕镜像加速
在威联通NAS系统中配置轩辕镜像加速
在 Podman 中配置轩辕镜像加速,支持多系统
配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤
无需登录即可使用轩辕镜像加速服务,更加便捷高效
需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429