轩辕镜像
轩辕镜像专业版
个人中心搜索镜像
交易
充值流量我的订单
工具
工单支持镜像收录Run 助手IP 归属地密码生成Npm 源Pip 源
帮助
常见问题我要吐槽
其他
关于我们网站地图

官方QQ群: 13763429

轩辕镜像
镜像详情
localai/localai
官方博客使用教程热门镜像工单支持
本站面向开发者与科研用户,提供开源镜像的搜索和下载加速服务。
所有镜像均来源于原始开源仓库,本站不存储、不修改、不传播任何镜像内容。
轩辕镜像 - 国内开发者首选的专业 Docker 镜像下载加速服务平台 - 官方QQ群:13763429 👈点击免费获得技术支持。
本站面向开发者与科研用户,提供开源镜像的搜索和下载加速服务。所有镜像均来源于原始开源仓库,本站不存储、不修改、不传播任何镜像内容。

本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com

localai Docker 镜像下载 - 轩辕镜像

localai 镜像详细信息和使用指南

localai 镜像标签列表和版本信息

localai 镜像拉取命令和加速下载

localai 镜像使用说明和配置指南

Docker 镜像加速服务 - 轩辕镜像平台

国内开发者首选的 Docker 镜像加速平台

极速拉取 Docker 镜像服务

相关 Docker 镜像推荐

热门 Docker 镜像下载

localai
localai/localai

localai 镜像详细信息

localai 镜像标签列表

localai 镜像使用说明

localai 镜像拉取命令

Docker 镜像加速服务

轩辕镜像平台优势

镜像下载指南

相关 Docker 镜像推荐

LocalAI是免费开源的OpenAI替代方案
80 收藏0 次下载activelocalai镜像
🚀轩辕镜像专业版更稳定💎一键安装 Docker 配置镜像源
中文简介版本下载
🚀轩辕镜像专业版更稳定💎一键安装 Docker 配置镜像源

localai 镜像详细说明

localai 使用指南

localai 配置说明

localai 官方文档

LocalAI Docker镜像文档

1. 镜像概述和主要用途

LocalAI是一款免费开源的OpenAI替代品,提供与OpenAI(及Elevenlabs、Anthropic等)API规范兼容的RESTful API,支持本地AI推理。其核心功能是作为 drop-in 替代方案,允许在消费级硬件上运行大型语言模型(LLM)、生成图像、音频等内容,无需依赖GPU,适用于本地或私有环境部署,保护数据隐私并降低外部API依赖。

2. 核心功能和特性

  • API兼容性:完全兼容OpenAI API规范,可无缝替换现有基于OpenAI API的应用系统。
  • 多模态支持:支持文本生成(LLM)、图像生成、音频处理等多种AI任务。
  • 硬件灵活性:无需GPU即可在CPU环境运行,同时支持Nvidia GPU加速以提升性能。
  • 多模型支持:兼容多种模型家族,可通过官方模型库([***]
  • Web管理界面:内置直观的WebUI,提供模型管理、对话交互、音频生成、P2P节点管理等可视化操作功能。
  • 轻量级部署:通过Docker镜像实现快速部署,提供多种镜像类型(CPU专用、GPU加速、全功能AIO等)以适配不同场景。
  • P2P网络支持:集成Swarm功能,支持P2P节点发现与资源共享,扩展分布式推理能力。

3. 使用场景和适用范围

  • 本地AI推理:在个人设备或私有服务器上进行AI推理,避免数据上传至第三方服务器,保障数据隐私。
  • OpenAI API替代:在开发、测试或生产环境中替代OpenAI API,降低API调用成本,消除外部服务依赖。
  • 资源受限环境:适用于无GPU的硬件环境(如个人PC、边缘设备),通过CPU实现轻量级AI推理。
  • 企业内部部署:满足企业对数据合规性和安全性的要求,在内部网络中部署私有AI服务。
  • 多模态应用开发:支持开发集成文本生成、图像生成、音频处理的多模态AI应用。
  • 模型测试与评估:快速测试不同模型的性能、效果及兼容性,无需访问外部API。

4. 使用方法和配置说明

4.1 安装方式

4.1.1 官方安装脚本(推荐)

通过官方一键安装脚本快速部署:

curl [***] | sh

4.1.2 Docker镜像部署

根据硬件环境选择以下镜像类型:

CPU专用镜像(轻量级)

适用于无GPU环境,镜像体积较小:

docker run -ti --name local-ai -p 8080:8080 localai/localai:latest-cpu

参数说明:

  • -ti:启用交互式终端
  • --name local-ai:指定容器名称为local-ai
  • -p 8080:8080:端口映射(主机端口:容器端口),WebUI和API通过8080端口访问
  • localai/localai:latest-cpu:CPU专用镜像标签
Nvidia GPU加速镜像

需预先安装Nvidia Docker运行时,支持CUDA 12:

docker run -ti --name local-ai -p 8080:8080 --gpus all localai/localai:latest-gpu-nvidia-cuda-12

参数说明:

  • --gpus all:启用所有GPU资源(需Nvidia Docker支持)
全功能镜像(CPU+GPU)

包含CPU和GPU支持,功能全面但镜像体积较大:

docker run -ti --name local-ai -p 8080:8080 localai/localai:latest
AIO(All-in-One)镜像(预下载模型)

预下载一组常用模型,开箱即用:

docker run -ti --name local-ai -p 8080:8080 localai/localai:latest-aio-cpu

4.2 模型加载与管理

通过local-ai run命令加载模型,支持多种来源:

4.2.1 从官方模型库加载

模型库提供多种预配置模型,可通过名称加载(需先安装local-ai客户端):

# 列出可用模型
local-ai models list

# 加载指定模型(如llama-3.2-1b-instruct量化版本)
local-ai run llama-3.2-1b-instruct:q4_k_m

4.2.2 从Hugging Face加载

直接从Hugging Face加载GGUF格式模型:

local-ai run huggingface://TheBloke/phi-2-GGUF/phi-2.Q8_0.gguf

4.2.3 从Ollama注册表加载

加载Ollama格式模型:

local-ai run ollama://gemma:2b

4.2.4 从配置文件加载

通过远程配置文件加载模型:

local-ai run [***]

4.2.5 从OCI注册表加载

从标准OCI注册表(如Docker Hub)加载模型:

local-ai run oci://localai/phi-2:latest

4.3 配置说明

LocalAI支持通过YAML配置文件自定义模型参数、API行为等。配置文件通常放置在模型目录或指定的配置路径,可定义模型名称、推理参数、上下文窗口大小等。详细配置选项请参考官方文档。

5. 访问与使用

容器启动后,可通过以下方式访问LocalAI服务:

  • WebUI:访问 http://localhost:8080,通过界面进行模型管理、对话交互、图像/音频生成等操作。
  • API:通过 http://localhost:8080/v1 访问兼容OpenAI的API端点(如/v1/chat/completions、/v1/images/generations)。

6. 相关工具

LocalAI属于Local Stack Family,与以下工具协同工作:

6.1 LocalAGI

LocalAGI是一个强大的本地AI代理管理平台,作为OpenAI Responses API的替代品,增强了高级代理功能。

6.2 LocalRecall

LocalRecall是一个RESTful API和知识库管理系统,为AI代理提供持久化内存和存储能力。

7. 参考链接

  • 官方文档
  • 模型库
  • GitHub仓库
  • Docker Hub
查看更多 localai 相关镜像 →
localai/localai-backends logo
localai/localai-backends
by localai
为LocalAI提供额外后端支持的Docker镜像,用于扩展其功能与兼容性。
2100K+ pulls
上次更新:1 小时前

常见问题

轩辕镜像免费版与专业版有什么区别?

免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。

轩辕镜像免费版与专业版有分别支持哪些镜像?

免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。

流量耗尽错误提示

当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。

410 错误问题

通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。

manifest unknown 错误

先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。

镜像拉取成功后,如何去掉轩辕镜像域名前缀?

使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。

查看全部问题→

轩辕镜像下载加速使用手册

探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式

🔐

登录方式进行 Docker 镜像下载加速教程

通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤

🐧

Linux Docker 镜像下载加速教程

在 Linux 系统上配置轩辕镜像源,支持主流发行版

🖥️

Windows/Mac Docker 镜像下载加速教程

在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统

📦

Docker Compose 镜像下载加速教程

在 Docker Compose 中使用轩辕镜像加速,支持容器编排

📋

K8s containerd 镜像下载加速教程

在 k8s 中配置 containerd 使用轩辕镜像加速

🔧

宝塔面板 Docker 镜像下载加速教程

在宝塔面板中配置轩辕镜像加速,提升服务器管理效率

💾

群晖 NAS Docker 镜像下载加速教程

在 Synology 群晖NAS系统中配置轩辕镜像加速

🐂

飞牛fnOS Docker 镜像下载加速教程

在飞牛fnOS系统中配置轩辕镜像加速

📱

极空间 NAS Docker 镜像下载加速教程

在极空间NAS中配置轩辕镜像加速

⚡

爱快路由 ikuai Docker 镜像下载加速教程

在爱快ikuai系统中配置轩辕镜像加速

🔗

绿联 NAS Docker 镜像下载加速教程

在绿联NAS系统中配置轩辕镜像加速

🌐

威联通 NAS Docker 镜像下载加速教程

在威联通NAS系统中配置轩辕镜像加速

📦

Podman Docker 镜像下载加速教程

在 Podman 中配置轩辕镜像加速,支持多系统

📚

ghcr、Quay、nvcr、k8s、gcr 等仓库下载镜像加速教程

配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤

🚀

专属域名方式进行 Docker 镜像下载加速教程

无需登录即可使用轩辕镜像加速服务,更加便捷高效

需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429

商务:17300950906
|©2024-2025 源码跳动
商务合作电话:17300950906|Copyright © 2024-2025 杭州源码跳动科技有限公司. All rights reserved.