轩辕镜像
轩辕镜像专业版
个人中心搜索镜像
交易
充值流量我的订单
工具
工单支持镜像收录Run 助手IP 归属地密码生成Npm 源Pip 源
帮助
常见问题我要吐槽
其他
关于我们网站地图

官方QQ群: 13763429

轩辕镜像
镜像详情
seemeai/llama-cpp
官方博客使用教程热门镜像工单支持
本站面向开发者与科研用户,提供开源镜像的搜索和下载加速服务。
所有镜像均来源于原始开源仓库,本站不存储、不修改、不传播任何镜像内容。
轩辕镜像 - 国内开发者首选的专业 Docker 镜像下载加速服务平台 - 官方QQ群:13763429 👈点击免费获得技术支持。
本站面向开发者与科研用户,提供开源镜像的搜索和下载加速服务。所有镜像均来源于原始开源仓库,本站不存储、不修改、不传播任何镜像内容。

本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com

llama-cpp Docker 镜像下载 - 轩辕镜像

llama-cpp 镜像详细信息和使用指南

llama-cpp 镜像标签列表和版本信息

llama-cpp 镜像拉取命令和加速下载

llama-cpp 镜像使用说明和配置指南

Docker 镜像加速服务 - 轩辕镜像平台

国内开发者首选的 Docker 镜像加速平台

极速拉取 Docker 镜像服务

相关 Docker 镜像推荐

热门 Docker 镜像下载

llama-cpp
seemeai/llama-cpp

llama-cpp 镜像详细信息

llama-cpp 镜像标签列表

llama-cpp 镜像使用说明

llama-cpp 镜像拉取命令

Docker 镜像加速服务

轩辕镜像平台优势

镜像下载指南

相关 Docker 镜像推荐

用于转换和测试llama.cpp支持模型的社区版发布容器,提供模型转换、多格式量化及功能测试功能,适配不同硬件环境需求。
4 收藏0 次下载activeseemeai镜像
🚀轩辕镜像专业版更稳定💎一键安装 Docker 配置镜像源
中文简介版本下载
🚀轩辕镜像专业版更稳定💎一键安装 Docker 配置镜像源

llama-cpp 镜像详细说明

llama-cpp 使用指南

llama-cpp 配置说明

llama-cpp 官方文档

llama.cpp社区版发布容器

镜像概述

llama.cpp社区版发布容器是基于seemeai/llama-cpp镜像构建的工具容器,专注于llama.cpp支持模型的转换、量化处理与功能验证。通过容器化方案简化模型处理流程,支持多种量化精度,帮助开发者快速适配不同硬件资源环境,验证模型性能。

核心功能

  • 模型格式转换:使用convert.py脚本将原始模型权重转换为llama.cpp兼容的GGUF格式
  • 多量化格式支持:内置q2_k、q3_k_l、q4_0、q5_k_m、q6_k、q8_0等多种量化算法,平衡模型大小与推理性能
  • 快速功能测试:通过main工具执行推理测试,验证量化后模型的文本生成能力

使用场景

  • 模型开发者需将自定义模型转换为llama.cpp兼容格式
  • 研究人员测试不同量化精度对模型性能(速度/精度)的影响
  • 硬件资源受限场景下,通过量化减小模型体积适配边缘设备

使用方法

环境准备

  1. 数据目录配置
    创建本地数据目录(如/data_folder_with_all_models),并将模型权重及配置文件存放于${data_dir}/llama-data/${model}/路径下(${model}为模型名称,如mixtral-7b)。

  2. 镜像信息
    基础镜像:seemeai/llama-cpp:b1632-cuda12.1(含CUDA 12.1支持,需GPU环境可启用硬件加速)

模型转换

将原始模型转换为GGUF格式(f16精度):

data_dir=/data_folder_with_all_models  # 本地模型数据根目录
model=mixtral-7b  # 模型名称(对应数据目录下的子文件夹)
image=seemeai/llama-cpp:b1632-cuda12.1

docker run -it --shm-size=64G -v $data_dir:/models \
  --entrypoint python $image \
  /code/llama.cpp/convert.py /models/llama-data/$model/ --vocab-dir /models
  • --shm-size=64G:设置共享内存大小(大模型转换需足够内存)
  • -v $data_dir:/models:挂载本地数据目录到容器内/models路径
  • 输出文件:${data_dir}/llama-data/${model}/ggml-model-f16.gguf

量化处理

对转换后的f16模型执行多格式量化:

# 定义需量化的格式列表(可根据需求调整)
quantizations=( q2_k q3_k_l q3_k_m q4_0 q4_1 q4_k_s q5_0 q5_1 q5_k_m q5_k_s q6_k q8_0 )

for quantize in "${quantizations[@]}"; do
  docker run -it --shm-size=64G -v $data_dir:/models \
    --entrypoint /code/llama.cpp/quantize $image \
    /models/llama-data/$model/ggml-model-f16.gguf \
    /models/llama-data/$model/ggml-model-$quantize.gguf \
    $quantize
done
  • 输出文件:${data_dir}/llama-data/${model}/ggml-model-${quantize}.gguf(如ggml-model-q4_0.gguf)
  • Legacy版本说明:旧版本需指定二进制路径,添加bin_folder=/build/bin,修改entrypoint为/code/llama.cpp/build/bin/quantize

模型测试

对量化后的模型执行推理测试:

# 以q4_0量化模型为例
docker run -it --shm-size=64G -v $data_dir:/models \
  --entrypoint /code/llama.cpp/main $image \
  -m /models/llama-data/$model/ggml-model-q4_0.gguf \
  -p "Building a website can be done in 10 simple steps:\nStep 1:" \
  -n 400 -e -t 16  # -ngl 40  # 启用GPU加速时添加,指定GPU卸载层数
  • 参数说明:
    • -m:量化后模型文件路径
    • -p:输入提示文本
    • -n:生成文本长度(tokens数)
    • -t:推理线程数
    • -ngl:GPU卸载层数(需CUDA环境,默认禁用)

关键配置参数

参数说明默认值
data_dir本地模型数据根目录,需包含llama-data/${model}子目录/data_folder_with_all_models
model模型名称,对应数据目录下的子文件夹名称mixtral-7b
nglGPU卸载层数(仅CUDA版本有效),0表示纯CPU推理40
quantizations需执行的量化格式列表,可按需增删(q2_k q3_k_l q3_k_m q4_0 q4_1 q4_k_s q5_0 q5_1 q5_k_m q5_k_s q6_k q8_0)
bin_folderLegacy版本二进制文件路径,新版本无需设置空(Legacy版本设为/build/bin)
查看更多 llama-cpp 相关镜像 →
hubimage/llama-cpp logo
hubimage/llama-cpp
by hubimage
暂无描述
50K+ pulls
上次更新:11 个月前

常见问题

轩辕镜像免费版与专业版有什么区别?

免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。

轩辕镜像免费版与专业版有分别支持哪些镜像?

免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。

流量耗尽错误提示

当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。

410 错误问题

通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。

manifest unknown 错误

先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。

镜像拉取成功后,如何去掉轩辕镜像域名前缀?

使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。

查看全部问题→

轩辕镜像下载加速使用手册

探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式

🔐

登录方式进行 Docker 镜像下载加速教程

通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤

🐧

Linux Docker 镜像下载加速教程

在 Linux 系统上配置轩辕镜像源,支持主流发行版

🖥️

Windows/Mac Docker 镜像下载加速教程

在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统

📦

Docker Compose 镜像下载加速教程

在 Docker Compose 中使用轩辕镜像加速,支持容器编排

📋

K8s containerd 镜像下载加速教程

在 k8s 中配置 containerd 使用轩辕镜像加速

🔧

宝塔面板 Docker 镜像下载加速教程

在宝塔面板中配置轩辕镜像加速,提升服务器管理效率

💾

群晖 NAS Docker 镜像下载加速教程

在 Synology 群晖NAS系统中配置轩辕镜像加速

🐂

飞牛fnOS Docker 镜像下载加速教程

在飞牛fnOS系统中配置轩辕镜像加速

📱

极空间 NAS Docker 镜像下载加速教程

在极空间NAS中配置轩辕镜像加速

⚡

爱快路由 ikuai Docker 镜像下载加速教程

在爱快ikuai系统中配置轩辕镜像加速

🔗

绿联 NAS Docker 镜像下载加速教程

在绿联NAS系统中配置轩辕镜像加速

🌐

威联通 NAS Docker 镜像下载加速教程

在威联通NAS系统中配置轩辕镜像加速

📦

Podman Docker 镜像下载加速教程

在 Podman 中配置轩辕镜像加速,支持多系统

📚

ghcr、Quay、nvcr、k8s、gcr 等仓库下载镜像加速教程

配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤

🚀

专属域名方式进行 Docker 镜像下载加速教程

无需登录即可使用轩辕镜像加速服务,更加便捷高效

需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429

商务:17300950906
|©2024-2025 源码跳动
商务合作电话:17300950906|Copyright © 2024-2025 杭州源码跳动科技有限公司. All rights reserved.