本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com

项目源码托管于GitHub。
本项目基于llama.cpp构建,仅编译了RPC服务器及运行在RPC客户端模式的辅助工具,这些工具是实现分布式推理GGUF格式大语言模型(LLMs)和嵌入模型的必要组件。
使用RPC服务器的应用架构如下:
!架构图
除llama-server外,还可使用标准容器包中包含的llama-cli或llama-embedding。
Docker镜像支持以下架构:
目前arm64架构的CUDA构建因错误失败,暂被禁用。
llama-server、llama-cli、llama-embedding等客户端工具| 名称 | 默认值 | 描述 |
|---|---|---|
| APP_MODE | backend | 容器运行模式,可选值:server(服务端)、backend(后端节点)、none |
| APP_BIND | 0.0.0.0 | 绑定的网络接口 |
| APP_PORT | server模式为8080,backend模式为50052 | 服务器运行端口 |
| APP_MEM | 1024 | 客户端可用RAM容量(MiB);CUDA模式下为GPU内存容量 |
| APP_RPC_BACKENDS | backend-cuda:50052,backend-cpu:50052 | server模式下容器将连接的后端节点地址,逗号分隔 |
| APP_MODEL | /app/models/TinyLlama-1.1B-q4_0.gguf | 容器内模型权重文件路径 |
| APP_REPEAT_PENALTY | 1.0 | 重复惩罚系数 |
| APP_GPU_LAYERS | 99 | 卸载到后端的层数 |
以下示例启动llama-server(容器main),并初始化模型TinyLlama-1.1B-q4_0.gguf(需预先下载至与docker-compose.yml同级的./models目录)。./models目录将挂载到容器内/app/models路径。
version: "3.9" services: main: image: evilfreelancer/llama.cpp-rpc:latest restart: unless-stopped volumes: - ./models:/app/models environment: # 运行模式(API服务器格式的RPC客户端) APP_MODE: server # 容器内预加载的模型权重路径 APP_MODEL: /app/models/TinyLlama-1.1B-q4_0.gguf # 客户端将交互的RPC服务器地址 APP_RPC_BACKENDS: backend-cuda:50052,backend-cpu:50052 ports: - "127.0.0.1:8080:8080" backend-cpu: image: evilfreelancer/llama.cpp-rpc:latest restart: unless-stopped environment: # 运行模式(RPC服务器) APP_MODE: backend # RPC服务器可用的系统内存量(兆字节) APP_MEM: 2048 backend-cuda: image: evilfreelancer/llama.cpp-rpc:latest-cuda restart: "unless-stopped" environment: # 运行模式(RPC服务器) APP_MODE: backend # RPC服务器可用的GPU内存量(兆字节) APP_MEM: 1024 deploy: resources: reservations: devices: - driver: nvidia count: 1 capabilities: [ gpu ]
启动后可通过以下HTTP请求进行推理:
curl \ --request POST \ --url http://localhost:8080/completion \ --header "Content-Type: application/json" \ --data '{"prompt": "构建网站可以通过10个简单步骤完成:"}'
免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。
免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。
当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。
通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。
先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。
使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤
在 Linux 系统上配置轩辕镜像源,支持主流发行版
在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统
在 Docker Compose 中使用轩辕镜像加速,支持容器编排
在 k8s 中配置 containerd 使用轩辕镜像加速
在宝塔面板中配置轩辕镜像加速,提升服务器管理效率
在 Synology 群晖NAS系统中配置轩辕镜像加速
在飞牛fnOS系统中配置轩辕镜像加速
在极空间NAS中配置轩辕镜像加速
在爱快ikuai系统中配置轩辕镜像加速
在绿联NAS系统中配置轩辕镜像加速
在威联通NAS系统中配置轩辕镜像加速
在 Podman 中配置轩辕镜像加速,支持多系统
配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤
无需登录即可使用轩辕镜像加速服务,更加便捷高效
需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429