本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com

Alpine LLaMA是一个超紧凑的Docker镜像(小于10 MB),提供基于LLaMA.cpp的HTTP服务器,用于语言模型推理。
Alpine LLaMA是一个基于Alpine Linux构建的轻量级Docker镜像,封装了LLaMA.cpp HTTP服务器,用于运行GGUF格式的语言模型进行推理。该镜像设计极致紧凑,总大小不到10 MB,特别适合资源受限环境。
该Docker镜像特别适合以下场景:
您可以使用以下命令部署一个基于LFM2 350M语言模型的HTTP推理服务器:
docker run --name alpine-llama -p 80:8080 -e LLAMA_API_KEY=sk-xxxx -e LLAMA_ARG_MODEL_URL=[***] samueltallet/alpine-llama-cpp-server
当GGUF模型文件下载完成(并缓存在Docker容器文件系统中)后,您可以查询暴露的OpenAI兼容Chat Completions API端点。
例如,您可以使用以下命令对反馈进行情感分类:
curl -s [***] \ -H 'Authorization: Bearer sk-xxxx' \ -d '{ "messages": [ { "role": "user", "content": "将此反馈的情感准确分类为一个词(积极、中性或消极):这个应用程序并非在所有场景下都有效,但我认为它有潜力。" } ], "temperature": 0, "max_tokens": 2 }' | jq '.choices[0].message.content' # > "中性"
上述脚本注意事项:
127.0.0.1替换为您的服务器IPsk-xxxxsudo apt install jq安装jq有关更多示例(如结构化输出和文本摘要),请参见GitHub仓库README。
以下是一个使用docker-compose部署的示例:
version: '3' services: alpine-llama: image: samueltallet/alpine-llama-cpp-server container_name: alpine-llama ports: - "8080:8080" environment: - LLAMA_API_KEY=sk-your-secure-api-key-here - LLAMA_ARG_MODEL_URL=[***] - LLAMA_ARG_ALIAS=LFM2-350M restart: unless-stopped volumes: - ./llama-models:/app/models # 可选:持久化存储模型文件
您可以通过环境变量配置Alpine LLaMA服务器:
| 环境变量 | 描述 | 示例值 |
|---|---|---|
LLAMA_ARG_HF_REPO | Hugging Face模型仓库 | bartowski/Llama-3.2-1B-Instruct-GGUF |
LLAMA_ARG_HF_FILE | Hugging Face仓库中的模型文件名 | Llama-3.2-1B-Instruct-Q4_K_M.gguf |
LLAMA_ARG_MODEL | 本地模型文件路径 | /home/you/LLMs/Llama-3.2-1B.gguf |
LLAMA_ARG_MODEL_URL | 模型文件下载URL | [***] |
LLAMA_API_KEY | HTTP API请求认证密钥 | sk-n5V9UAJt6wRFfZQ4eDYk37uGzbKXdpNj |
LLAMA_ARG_ALIAS | 模型在HTTP API请求中的别名 | Llama-3.2-1B |
完整的配置变量列表可在***LLaMA.cpp服务器文档中找到。
项目采用MIT许可证。详情参见LICENSE文件。
© 2025 Samuel Tallet

免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。
免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。
当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。
通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。
先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。
使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤
在 Linux 系统上配置轩辕镜像源,支持主流发行版
在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统
在 Docker Compose 中使用轩辕镜像加速,支持容器编排
在 k8s 中配置 containerd 使用轩辕镜像加速
在宝塔面板中配置轩辕镜像加速,提升服务器管理效率
在 Synology 群晖NAS系统中配置轩辕镜像加速
在飞牛fnOS系统中配置轩辕镜像加速
在极空间NAS中配置轩辕镜像加速
在爱快ikuai系统中配置轩辕镜像加速
在绿联NAS系统中配置轩辕镜像加速
在威联通NAS系统中配置轩辕镜像加速
在 Podman 中配置轩辕镜像加速,支持多系统
配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤
无需登录即可使用轩辕镜像加速服务,更加便捷高效
需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429