
dynafire/llama.cpp本镜像基于llama.cpp构建,核心特点是将关键配置通过环境变量暴露,便于在RunPod等容器化平台上快速部署和灵活配置。llama.cpp是一个轻量级C/C++实现的LLaMA系列模型推理框架,支持CPU和GPU加速,本镜像进一步优化了配置方式,适合需要快速集成到容器化工作流的场景。
| 环境变量名 | 描述 | 默认值 | 示例 |
|---|---|---|---|
MODEL_PATH | 模型文件路径(容器内路径) | /models/model.gguf | /models/llama-2-7b-chat.Q4_K_M.gguf |
CONTEXT_SIZE | 上下文窗口大小 | 2048 | 4096 |
N_THREADS | 推理线程数 | 4 | 8 |
PORT | 服务监听端口 | 8080 | 8000 |
HOST | 服务绑定地址 | 0.0.0.0 | 0.0.0.0 |
QUANTIZATION | 模型量化级别(如Q4_K_M、Q5_K_S等) | 无 | Q4_K_M |
bashdocker run -d \ -p 8080:8080 \ -e MODEL_PATH="/models/llama-2-7b-chat.Q4_K_M.gguf" \ -e CONTEXT_SIZE=4096 \ -e N_THREADS=8 \ -v /host/path/to/models:/models \ --name llama-cpp-runpod \ [镜像名称]
yamlversion: '3.8' services: llama-cpp: image: [镜像名称] ports: - "8080:8080" environment: - MODEL_PATH=/models/llama-2-7b-chat.Q4_K_M.gguf - CONTEXT_SIZE=4096 - N_THREADS=8 - PORT=8080 volumes: - /host/path/to/models:/models restart: unless-stopped
MODEL_PATH、CONTEXT_SIZE等)MODEL_PATH环境变量指定)



manifest unknown 错误
TLS 证书验证失败
DNS 解析超时
410 错误:版本过低
402 错误:流量耗尽
身份认证失败错误
429 限流错误
凭证保存错误
来自真实用户的反馈,见证轩辕镜像的优质服务