轩辕镜像
轩辕镜像专业版
个人中心搜索镜像
交易
充值流量我的订单
工具
工单支持镜像收录Run 助手IP 归属地密码生成Npm 源Pip 源
帮助
常见问题我要吐槽
其他
关于我们网站地图

官方QQ群: 13763429

轩辕镜像
镜像详情
dustynv/llama_cpp
官方博客使用教程热门镜像工单支持
本站面向开发者与科研用户,提供开源镜像的搜索和下载加速服务。
所有镜像均来源于原始开源仓库,本站不存储、不修改、不传播任何镜像内容。
轩辕镜像 - 国内开发者首选的专业 Docker 镜像下载加速服务平台 - 官方QQ群:13763429 👈点击免费获得技术支持。
本站面向开发者与科研用户,提供开源镜像的搜索和下载加速服务。所有镜像均来源于原始开源仓库,本站不存储、不修改、不传播任何镜像内容。

本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com

llama_cpp Docker 镜像下载 - 轩辕镜像

llama_cpp 镜像详细信息和使用指南

llama_cpp 镜像标签列表和版本信息

llama_cpp 镜像拉取命令和加速下载

llama_cpp 镜像使用说明和配置指南

Docker 镜像加速服务 - 轩辕镜像平台

国内开发者首选的 Docker 镜像加速平台

极速拉取 Docker 镜像服务

相关 Docker 镜像推荐

热门 Docker 镜像下载

llama_cpp
dustynv/llama_cpp

llama_cpp 镜像详细信息

llama_cpp 镜像标签列表

llama_cpp 镜像使用说明

llama_cpp 镜像拉取命令

Docker 镜像加速服务

轩辕镜像平台优势

镜像下载指南

相关 Docker 镜像推荐

包含llama.cpp(启用CUDA支持)和llama-cpp-python的Docker镜像,支持GGUF/GGML模型格式,适用于本地大语言模型推理任务。
4 收藏0 次下载activedustynv镜像
🚀轩辕镜像专业版更稳定💎一键安装 Docker 配置镜像源
中文简介版本下载
🚀轩辕镜像专业版更稳定💎一键安装 Docker 配置镜像源

llama_cpp 镜像详细说明

llama_cpp 使用指南

llama_cpp 配置说明

llama_cpp 官方文档

llama_cpp

概述

  • 基于 [***] 构建,启用CUDA支持(位于 /opt/llama.cpp)
  • 包含 [***] 的Python绑定(位于 /opt/llama-cpp-python)

[!WARNING] 从0.1.79版本开始,模型格式已从GGML更改为GGUF。现有GGML模型可使用llama.cpp中的convert-llama-ggmlv3-to-gguf.py脚本转换(或可在HuggingFace Hub找到GGUF格式的转换版本)

分支说明

为保持向后兼容性,该容器提供两个分支:

  • llama_cpp:gguf(默认分支,跟踪上游master分支)
  • llama_cpp:ggml(仍支持GGML模型格式)

legacy GGML分支应用了以下补丁:

  • 修复ARM64架构下llama.h中__fp16的typedef(使用NVCC的half类型)
  • BOS/EOS令牌解析(参见[***]

推理基准测试

可使用llama.cpp内置的main工具运行GGUF模型(来自HuggingFace Hub或其他来源)

./run.sh --workdir=/opt/llama.cpp/bin $(./autotag llama_cpp) /bin/bash -c \
 './main --model $(huggingface-downloader TheBloke/Llama-2-7B-GGUF/llama-2-7b.Q4_K_S.gguf) \
         --prompt "很久很久以前," \
         --n-predict 128 --ctx-size 192 --batch-size 192 \
         --n-gpu-layers 999 --threads $(nproc)'

--model参数需要.gguf文件名(通常使用Q4_K_S量化版本)
若加载Llama-2-70B模型,需添加--gqa 8标志

也可使用Python API和benchmark.py:

./run.sh --workdir=/opt/llama.cpp/bin $(./autotag llama_cpp) /bin/bash -c \
 'python3 benchmark.py --model $(huggingface-downloader TheBloke/Llama-2-7B-GGUF/llama-2-7b.Q4_K_S.gguf) \
            --prompt "很久很久以前," \
            --n-predict 128 --ctx-size 192 --batch-size 192 \
            --n-gpu-layers 999 --threads $(nproc)'

内存使用

模型量化方式内存(MB)
TheBloke/Llama-2-7B-GGUFllama-2-7b.Q4_K_S.gguf5,268
TheBloke/Llama-2-13B-GGUFllama-2-13b.Q4_K_S.gguf8,609
TheBloke/LLaMA-30b-GGUFllama-30b.Q4_K_S.gguf19,045
TheBloke/Llama-2-70B-GGUFllama-2-70b.Q4_K_S.gguf37,655

容器信息

CONTAINERS

llama_cpp:0.2.57
   别名llama_cpp
   依赖系统L4T ['>=34.1.0']
   依赖项build-essential cuda cudnn python cmake numpy huggingface_hub
   被依赖项langchain langchain:samples text-generation-webui:1.7 text-generation-webui:6a7cd01 text-generation-webui:main
   DockerfileDockerfile

容器镜像

仓库/标签日期架构大小
  dustynv/llama_cpp:ggml-r35.2.12023-12-05arm645.2GB
  dustynv/llama_cpp:ggml-r35.3.12023-12-06arm645.2GB
  dustynv/llama_cpp:ggml-r35.4.12023-12-19arm645.2GB
  dustynv/llama_cpp:ggml-r36.2.02023-12-19arm645.1GB
  dustynv/llama_cpp:gguf-r35.2.12023-12-15arm645.1GB
  dustynv/llama_cpp:gguf-r35.3.12023-12-19arm645.2GB
  dustynv/llama_cpp:gguf-r35.4.12023-12-15arm645.1GB
  dustynv/llama_cpp:gguf-r36.2.02023-12-19arm645.1GB
  dustynv/llama_cpp:r35.2.12023-08-29arm645.2GB
  dustynv/llama_cpp:r35.3.12023-08-15arm645.2GB
  dustynv/llama_cpp:r35.4.12023-08-13arm645.1GB
  dustynv/llama_cpp:r36.2.02024-02-22arm645.3GB

容器镜像与其他次要版本的JetPack/L4T兼容:
    • L4T R32.7容器可在其他L4T R32.7版本(JetPack 4.6+)上运行
    • L4T R35.x容器可在其他L4T R35.x版本(JetPack 5.1+)上运行

运行容器

可使用jetson-containers run和autotag启动容器,或手动构建docker run命令:

# 自动拉取或构建兼容的容器镜像
jetson-containers run $(autotag llama_cpp)

# 或显式指定上述容器镜像之一
jetson-containers run dustynv/llama_cpp:r36.2.0

# 或使用'docker run'(指定镜像和挂载等)
sudo docker run --runtime nvidia -it --rm --network=host dustynv/llama_cpp:r36.2.0

jetson-containers run将参数转发给docker run,并添加一些默认值(如--runtime nvidia、挂载/data缓存、检测设备)
autotag会找到与您的JetPack/L4T版本兼容的容器镜像——本地、从注册表拉取或构建。

要将主机目录挂载到容器中,使用-v或--volume标志:

jetson-containers run -v /主机路径:/容器路径 $(autotag llama_cpp)

要启动容器运行命令而非交互式shell:

jetson-containers run $(autotag llama_cpp) my_app --abc xyz

可传递任何docker run支持的选项,执行前会打印完整命令。

构建容器

若如上所示使用autotag,需要时会提示构建容器。要手动构建,先完成系统设置,然后运行:

jetson-containers build llama_cpp

上述依赖项将构建到容器中,并在构建过程中进行测试。使用--help查看构建选项。

查看更多 llama_cpp 相关镜像 →

常见问题

轩辕镜像免费版与专业版有什么区别?

免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。

轩辕镜像免费版与专业版有分别支持哪些镜像?

免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。

流量耗尽错误提示

当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。

410 错误问题

通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。

manifest unknown 错误

先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。

镜像拉取成功后,如何去掉轩辕镜像域名前缀?

使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。

查看全部问题→

轩辕镜像下载加速使用手册

探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式

🔐

登录方式进行 Docker 镜像下载加速教程

通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤

🐧

Linux Docker 镜像下载加速教程

在 Linux 系统上配置轩辕镜像源,支持主流发行版

🖥️

Windows/Mac Docker 镜像下载加速教程

在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统

📦

Docker Compose 镜像下载加速教程

在 Docker Compose 中使用轩辕镜像加速,支持容器编排

📋

K8s containerd 镜像下载加速教程

在 k8s 中配置 containerd 使用轩辕镜像加速

🔧

宝塔面板 Docker 镜像下载加速教程

在宝塔面板中配置轩辕镜像加速,提升服务器管理效率

💾

群晖 NAS Docker 镜像下载加速教程

在 Synology 群晖NAS系统中配置轩辕镜像加速

🐂

飞牛fnOS Docker 镜像下载加速教程

在飞牛fnOS系统中配置轩辕镜像加速

📱

极空间 NAS Docker 镜像下载加速教程

在极空间NAS中配置轩辕镜像加速

⚡

爱快路由 ikuai Docker 镜像下载加速教程

在爱快ikuai系统中配置轩辕镜像加速

🔗

绿联 NAS Docker 镜像下载加速教程

在绿联NAS系统中配置轩辕镜像加速

🌐

威联通 NAS Docker 镜像下载加速教程

在威联通NAS系统中配置轩辕镜像加速

📦

Podman Docker 镜像下载加速教程

在 Podman 中配置轩辕镜像加速,支持多系统

📚

ghcr、Quay、nvcr、k8s、gcr 等仓库下载镜像加速教程

配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤

🚀

专属域名方式进行 Docker 镜像下载加速教程

无需登录即可使用轩辕镜像加速服务,更加便捷高效

需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429

商务:17300950906
|©2024-2025 源码跳动
商务合作电话:17300950906|Copyright © 2024-2025 杭州源码跳动科技有限公司. All rights reserved.