轩辕镜像
轩辕镜像专业版
个人中心搜索镜像
交易
充值流量我的订单
工具
工单支持镜像收录Run 助手IP 归属地密码生成Npm 源Pip 源
帮助
常见问题我要吐槽
其他
关于我们网站地图

官方QQ群: 13763429

轩辕镜像
镜像详情
evilfreelancer/llama.cpp-rpc
官方博客使用教程热门镜像工单支持
本站面向开发者与科研用户,提供开源镜像的搜索和下载加速服务。
所有镜像均来源于原始开源仓库,本站不存储、不修改、不传播任何镜像内容。
轩辕镜像 - 国内开发者首选的专业 Docker 镜像下载加速服务平台 - 官方QQ群:13763429 👈点击免费获得技术支持。
本站面向开发者与科研用户,提供开源镜像的搜索和下载加速服务。所有镜像均来源于原始开源仓库,本站不存储、不修改、不传播任何镜像内容。

本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com

llama.cpp-rpc Docker 镜像下载 - 轩辕镜像

llama.cpp-rpc 镜像详细信息和使用指南

llama.cpp-rpc 镜像标签列表和版本信息

llama.cpp-rpc 镜像拉取命令和加速下载

llama.cpp-rpc 镜像使用说明和配置指南

Docker 镜像加速服务 - 轩辕镜像平台

国内开发者首选的 Docker 镜像加速平台

极速拉取 Docker 镜像服务

相关 Docker 镜像推荐

热门 Docker 镜像下载

llama.cpp-rpc
evilfreelancer/llama.cpp-rpc

llama.cpp-rpc 镜像详细信息

llama.cpp-rpc 镜像标签列表

llama.cpp-rpc 镜像使用说明

llama.cpp-rpc 镜像拉取命令

Docker 镜像加速服务

轩辕镜像平台优势

镜像下载指南

相关 Docker 镜像推荐

基于llama.cpp的Docker化RPC服务器,编译了RPC服务端及客户端工具,支持分布式推理GGUF格式的大语言模型(LLM)和嵌入模型,提供CPU(amd64/arm64/arm/v7)和CUDA(amd64)架构支持,适用于构建分布式LLM推理系统。
3 收藏0 次下载activeevilfreelancer镜像
🚀轩辕镜像专业版更稳定💎一键安装 Docker 配置镜像源
中文简介版本下载
🚀轩辕镜像专业版更稳定💎一键安装 Docker 配置镜像源

llama.cpp-rpc 镜像详细说明

llama.cpp-rpc 使用指南

llama.cpp-rpc 配置说明

llama.cpp-rpc 官方文档

llama.cpp RPC-server Docker镜像

项目源码托管于GitHub。

本项目基于llama.cpp构建,仅编译了RPC服务器及运行在RPC客户端模式的辅助工具,这些工具是实现分布式推理GGUF格式大语言模型(LLMs)和嵌入模型的必要组件。

镜像概述

使用RPC服务器的应用架构如下:

!架构图

除llama-server外,还可使用标准容器包中包含的llama-cli或llama-embedding。

Docker镜像支持以下架构:

  • 仅CPU - amd64、arm64、arm/v7
  • CUDA - amd64

目前arm64架构的CUDA构建因错误失败,暂被禁用。

核心功能与特性

  • 分布式推理支持:通过RPC协议实现大语言模型和嵌入模型的分布式推理
  • 多运行模式:支持server(服务端)、backend(后端节点)和none三种运行模式
  • 多架构兼容:覆盖主流CPU架构(amd64/arm64/arm/v7)及amd64架构的CUDA加速
  • 灵活资源配置:可通过环境变量配置内存/显存分配、模型路径、重复惩罚等参数
  • 完整工具链:包含llama-server、llama-cli、llama-embedding等客户端工具

使用场景与适用范围

  • 需构建分布式LLM推理系统,利用多节点CPU/GPU资源
  • 需要部署GGUF格式大语言模型(如Llama系列、TinyLlama等)的场景
  • 开发基于RPC协议的LLM推理应用,需服务端与客户端分离架构
  • 资源受限环境下,通过多节点协同提升推理性能

环境变量配置

名称默认值描述
APP_MODEbackend容器运行模式,可选值:server(服务端)、backend(后端节点)、none
APP_BIND0.0.0.0绑定的网络接口
APP_PORTserver模式为8080,backend模式为50052服务器运行端口
APP_MEM1024客户端可用RAM容量(MiB);CUDA模式下为GPU内存容量
APP_RPC_BACKENDSbackend-cuda:50052,backend-cpu:50052server模式下容器将连接的后端节点地址,逗号分隔
APP_MODEL/app/models/TinyLlama-1.1B-q4_0.gguf容器内模型权重文件路径
APP_REPEAT_PENALTY1.0重复惩罚系数
APP_GPU_LAYERS99卸载到后端的层数

使用方法与部署示例

docker-compose部署示例

以下示例启动llama-server(容器main),并初始化模型TinyLlama-1.1B-q4_0.gguf(需预先下载至与docker-compose.yml同级的./models目录)。./models目录将挂载到容器内/app/models路径。

version: "3.9"

services:

  main:
    image: evilfreelancer/llama.cpp-rpc:latest
    restart: unless-stopped
    volumes:
      - ./models:/app/models
    environment:
      # 运行模式(API服务器格式的RPC客户端)
      APP_MODE: server
      # 容器内预加载的模型权重路径
      APP_MODEL: /app/models/TinyLlama-1.1B-q4_0.gguf
      # 客户端将交互的RPC服务器地址
      APP_RPC_BACKENDS: backend-cuda:50052,backend-cpu:50052
    ports:
      - "127.0.0.1:8080:8080"

  backend-cpu:
    image: evilfreelancer/llama.cpp-rpc:latest
    restart: unless-stopped
    environment:
      # 运行模式(RPC服务器)
      APP_MODE: backend
      # RPC服务器可用的系统内存量(兆字节)
      APP_MEM: 2048

  backend-cuda:
    image: evilfreelancer/llama.cpp-rpc:latest-cuda
    restart: "unless-stopped"
    environment:
      # 运行模式(RPC服务器)
      APP_MODE: backend
      # RPC服务器可用的GPU内存量(兆字节)
      APP_MEM: 1024
    deploy:
      resources:
        reservations:
          devices:
            - driver: nvidia
              count: 1
              capabilities: [ gpu ]

推理请求示例

启动后可通过以下HTTP请求进行推理:

curl \
    --request POST \
    --url http://localhost:8080/completion \
    --header "Content-Type: application/json" \
    --data '{"prompt": "构建网站可以通过10个简单步骤完成:"}'
查看更多 llama.cpp-rpc 相关镜像 →

常见问题

轩辕镜像免费版与专业版有什么区别?

免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。

轩辕镜像免费版与专业版有分别支持哪些镜像?

免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。

流量耗尽错误提示

当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。

410 错误问题

通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。

manifest unknown 错误

先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。

镜像拉取成功后,如何去掉轩辕镜像域名前缀?

使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。

查看全部问题→

轩辕镜像下载加速使用手册

探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式

🔐

登录方式进行 Docker 镜像下载加速教程

通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤

🐧

Linux Docker 镜像下载加速教程

在 Linux 系统上配置轩辕镜像源,支持主流发行版

🖥️

Windows/Mac Docker 镜像下载加速教程

在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统

📦

Docker Compose 镜像下载加速教程

在 Docker Compose 中使用轩辕镜像加速,支持容器编排

📋

K8s containerd 镜像下载加速教程

在 k8s 中配置 containerd 使用轩辕镜像加速

🔧

宝塔面板 Docker 镜像下载加速教程

在宝塔面板中配置轩辕镜像加速,提升服务器管理效率

💾

群晖 NAS Docker 镜像下载加速教程

在 Synology 群晖NAS系统中配置轩辕镜像加速

🐂

飞牛fnOS Docker 镜像下载加速教程

在飞牛fnOS系统中配置轩辕镜像加速

📱

极空间 NAS Docker 镜像下载加速教程

在极空间NAS中配置轩辕镜像加速

⚡

爱快路由 ikuai Docker 镜像下载加速教程

在爱快ikuai系统中配置轩辕镜像加速

🔗

绿联 NAS Docker 镜像下载加速教程

在绿联NAS系统中配置轩辕镜像加速

🌐

威联通 NAS Docker 镜像下载加速教程

在威联通NAS系统中配置轩辕镜像加速

📦

Podman Docker 镜像下载加速教程

在 Podman 中配置轩辕镜像加速,支持多系统

📚

ghcr、Quay、nvcr、k8s、gcr 等仓库下载镜像加速教程

配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤

🚀

专属域名方式进行 Docker 镜像下载加速教程

无需登录即可使用轩辕镜像加速服务,更加便捷高效

需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429

商务:17300950906
|©2024-2025 源码跳动
商务合作电话:17300950906|Copyright © 2024-2025 杭州源码跳动科技有限公司. All rights reserved.