轩辕镜像
轩辕镜像专业版
个人中心搜索镜像
交易
充值流量我的订单
工具
工单支持镜像收录Run 助手IP 归属地密码生成Npm 源Pip 源
帮助
常见问题我要吐槽
其他
关于我们网站地图

官方QQ群: 13763429

轩辕镜像
镜像详情
samueltallet/alpine-llama-cpp-server
官方博客使用教程热门镜像工单支持
本站面向开发者与科研用户,提供开源镜像的搜索和下载加速服务。
所有镜像均来源于原始开源仓库,本站不存储、不修改、不传播任何镜像内容。
轩辕镜像 - 国内开发者首选的专业 Docker 镜像下载加速服务平台 - 官方QQ群:13763429 👈点击免费获得技术支持。
本站面向开发者与科研用户,提供开源镜像的搜索和下载加速服务。所有镜像均来源于原始开源仓库,本站不存储、不修改、不传播任何镜像内容。

本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com

alpine-llama-cpp-server Docker 镜像下载 - 轩辕镜像

alpine-llama-cpp-server 镜像详细信息和使用指南

alpine-llama-cpp-server 镜像标签列表和版本信息

alpine-llama-cpp-server 镜像拉取命令和加速下载

alpine-llama-cpp-server 镜像使用说明和配置指南

Docker 镜像加速服务 - 轩辕镜像平台

国内开发者首选的 Docker 镜像加速平台

极速拉取 Docker 镜像服务

相关 Docker 镜像推荐

热门 Docker 镜像下载

alpine-llama-cpp-server
samueltallet/alpine-llama-cpp-server

alpine-llama-cpp-server 镜像详细信息

alpine-llama-cpp-server 镜像标签列表

alpine-llama-cpp-server 镜像使用说明

alpine-llama-cpp-server 镜像拉取命令

Docker 镜像加速服务

轩辕镜像平台优势

镜像下载指南

相关 Docker 镜像推荐

基于Alpine的轻量级LLaMA.cpp HTTP服务器镜像
1 收藏0 次下载activesamueltallet镜像
🚀轩辕镜像专业版更稳定💎一键安装 Docker 配置镜像源
中文简介版本下载
🚀轩辕镜像专业版更稳定💎一键安装 Docker 配置镜像源

alpine-llama-cpp-server 镜像详细说明

alpine-llama-cpp-server 使用指南

alpine-llama-cpp-server 配置说明

alpine-llama-cpp-server 官方文档

Alpine LLaMA: 轻量级LLaMA.cpp HTTP服务镜像

Alpine LLaMA是一个超紧凑的Docker镜像(小于10 MB),提供基于LLaMA.cpp的HTTP服务器,用于语言模型推理。

Docker镜像大小‍ 支持树莓派

镜像概述和主要用途

Alpine LLaMA是一个基于Alpine Linux构建的轻量级Docker镜像,封装了LLaMA.cpp HTTP服务器,用于运行GGUF格式的语言模型进行推理。该镜像设计极致紧凑,总大小不到10 MB,特别适合资源受限环境。

核心功能和特性

  • 超小镜像体积(<10 MB),节省磁盘空间和带宽
  • 完整的LLaMA.cpp功能支持,包括最新推理特性
  • OpenAI兼容的Chat Completions API端点
  • 内置模型自动下载和缓存功能
  • 支持多种模型来源(Hugging Face仓库、URL下载或本地文件)
  • 树莓派和ARM架构支持
  • 纯CPU推理能力,无需GPU支持

使用场景和适用范围

该Docker镜像特别适合以下场景:

  • 磁盘空间有限或带宽较低的环境
  • 无法进行GPU加速推理的服务器,如纯CPU的VPS或树莓派
  • 需要快速部署轻量级LLM推理服务的场景
  • 开发和测试环境中的本地LLM服务
  • 资源受限设备上的AI应用原型验证

使用方法和配置说明

快速开始

您可以使用以下命令部署一个基于LFM2 350M语言模型的HTTP推理服务器:

docker run --name alpine-llama -p 80:8080 -e LLAMA_API_KEY=sk-xxxx -e LLAMA_ARG_MODEL_URL=[***] samueltallet/alpine-llama-cpp-server

当GGUF模型文件下载完成(并缓存在Docker容器文件系统中)后,您可以查询暴露的OpenAI兼容Chat Completions API端点。

例如,您可以使用以下命令对反馈进行情感分类:

curl -s [***] \
  -H 'Authorization: Bearer sk-xxxx' \
  -d '{
    "messages": [
      { "role": "user", "content": "将此反馈的情感准确分类为一个词(积极、中性或消极):这个应用程序并非在所有场景下都有效,但我认为它有潜力。" }
    ],
    "temperature": 0,
    "max_tokens": 2
  }' | jq '.choices[0].message.content'
# > "中性"

上述脚本注意事项:

  • 如果远程运行docker,请将127.0.0.1替换为您的服务器IP
  • 生产环境中,请使用您自己的强密钥代替sk-xxxx
  • 在Debian-based系统上,可以通过sudo apt install jq安装jq

更多示例

有关更多示例(如结构化输出和文本摘要),请参见GitHub仓库README。

Docker Compose配置示例

以下是一个使用docker-compose部署的示例:

version: '3'
services:
  alpine-llama:
    image: samueltallet/alpine-llama-cpp-server
    container_name: alpine-llama
    ports:
      - "8080:8080"
    environment:
      - LLAMA_API_KEY=sk-your-secure-api-key-here
      - LLAMA_ARG_MODEL_URL=[***]
      - LLAMA_ARG_ALIAS=LFM2-350M
    restart: unless-stopped
    volumes:
      - ./llama-models:/app/models  # 可选:持久化存储模型文件

配置参数

您可以通过环境变量配置Alpine LLaMA服务器:

环境变量描述示例值
LLAMA_ARG_HF_REPOHugging Face模型仓库bartowski/Llama-3.2-1B-Instruct-GGUF
LLAMA_ARG_HF_FILEHugging Face仓库中的模型文件名Llama-3.2-1B-Instruct-Q4_K_M.gguf
LLAMA_ARG_MODEL本地模型文件路径/home/you/LLMs/Llama-3.2-1B.gguf
LLAMA_ARG_MODEL_URL模型文件下载URL[***]
LLAMA_API_KEYHTTP API请求认证密钥sk-n5V9UAJt6wRFfZQ4eDYk37uGzbKXdpNj
LLAMA_ARG_ALIAS模型在HTTP API请求中的别名Llama-3.2-1B

完整的配置变量列表可在***LLaMA.cpp服务器文档中找到。

许可证

项目采用MIT许可证。详情参见LICENSE文件。

版权

© 2025 Samuel Tallet

查看更多 alpine-llama-cpp-server 相关镜像 →
ollama/ollama logo
ollama/ollama
by Ollama
The easiest way to get up and running with large language models.
144810M+ pulls
上次更新:10 天前
alpine/git logo
alpine/git
by alpine
这是一个运行于Alpine Linux系统中的简易Git容器,Alpine Linux以其极致精简的特性为基础,使得该容器在保持Git核心功能的同时,具备轻量高效的运行表现,尤其适用于各类小型Linux发行版环境,能够满足资源受限场景下的版本控制需求,为嵌入式系统、边缘设备或轻量级开发环境提供便捷的Git服务支持。
245100M+ pulls
上次更新:1 天前
alpine/socat logo
alpine/socat
by alpine
基于Alpine的轻量级容器,用于运行socat网络工具,实现端口转发、数据流转发等网络通信功能。
11450M+ pulls
上次更新:2 天前
alpine/helm logo
alpine/helm
by alpine
当Kubernetes Helm有新发布时自动触发Docker构建的镜像
6950M+ pulls
上次更新:8 天前
alpine/curl logo
alpine/curl
by alpine
基于Alpine Linux的轻量级Docker镜像,集成了curl命令行工具,专为网络数据传输设计。支持HTTP、HTTPS、FTP等多种协议,可用于API测试、文件下载、服务监控等场景。得益于Alpine的精简特性,镜像体积小巧,启动快速,非常适合在容器化环境中执行临时网络请求或自动化任务,是开发调试、CI/CD流程及微服务健康检查的理想工具。
1150M+ pulls
上次更新:2 天前

常见问题

轩辕镜像免费版与专业版有什么区别?

免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。

轩辕镜像免费版与专业版有分别支持哪些镜像?

免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。

流量耗尽错误提示

当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。

410 错误问题

通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。

manifest unknown 错误

先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。

镜像拉取成功后,如何去掉轩辕镜像域名前缀?

使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。

查看全部问题→

轩辕镜像下载加速使用手册

探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式

🔐

登录方式进行 Docker 镜像下载加速教程

通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤

🐧

Linux Docker 镜像下载加速教程

在 Linux 系统上配置轩辕镜像源,支持主流发行版

🖥️

Windows/Mac Docker 镜像下载加速教程

在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统

📦

Docker Compose 镜像下载加速教程

在 Docker Compose 中使用轩辕镜像加速,支持容器编排

📋

K8s containerd 镜像下载加速教程

在 k8s 中配置 containerd 使用轩辕镜像加速

🔧

宝塔面板 Docker 镜像下载加速教程

在宝塔面板中配置轩辕镜像加速,提升服务器管理效率

💾

群晖 NAS Docker 镜像下载加速教程

在 Synology 群晖NAS系统中配置轩辕镜像加速

🐂

飞牛fnOS Docker 镜像下载加速教程

在飞牛fnOS系统中配置轩辕镜像加速

📱

极空间 NAS Docker 镜像下载加速教程

在极空间NAS中配置轩辕镜像加速

⚡

爱快路由 ikuai Docker 镜像下载加速教程

在爱快ikuai系统中配置轩辕镜像加速

🔗

绿联 NAS Docker 镜像下载加速教程

在绿联NAS系统中配置轩辕镜像加速

🌐

威联通 NAS Docker 镜像下载加速教程

在威联通NAS系统中配置轩辕镜像加速

📦

Podman Docker 镜像下载加速教程

在 Podman 中配置轩辕镜像加速,支持多系统

📚

ghcr、Quay、nvcr、k8s、gcr 等仓库下载镜像加速教程

配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤

🚀

专属域名方式进行 Docker 镜像下载加速教程

无需登录即可使用轩辕镜像加速服务,更加便捷高效

需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429

商务:17300950906
|©2024-2025 源码跳动
商务合作电话:17300950906|Copyright © 2024-2025 杭州源码跳动科技有限公司. All rights reserved.