本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com

/opt/llama.cpp)/opt/llama-cpp-python)[!WARNING] 从0.1.79版本开始,模型格式已从GGML更改为GGUF。现有GGML模型可使用llama.cpp中的
convert-llama-ggmlv3-to-gguf.py脚本转换(或可在HuggingFace Hub找到GGUF格式的转换版本)
为保持向后兼容性,该容器提供两个分支:
llama_cpp:gguf(默认分支,跟踪上游master分支)llama_cpp:ggml(仍支持GGML模型格式)legacy GGML分支应用了以下补丁:
__fp16的typedef(使用NVCC的half类型)可使用llama.cpp内置的main工具运行GGUF模型(来自HuggingFace Hub或其他来源)
./run.sh --workdir=/opt/llama.cpp/bin $(./autotag llama_cpp) /bin/bash -c \ './main --model $(huggingface-downloader TheBloke/Llama-2-7B-GGUF/llama-2-7b.Q4_K_S.gguf) \ --prompt "很久很久以前," \ --n-predict 128 --ctx-size 192 --batch-size 192 \ --n-gpu-layers 999 --threads $(nproc)'
--model参数需要.gguf文件名(通常使用Q4_K_S量化版本)
若加载Llama-2-70B模型,需添加--gqa 8标志
也可使用Python API和benchmark.py:
./run.sh --workdir=/opt/llama.cpp/bin $(./autotag llama_cpp) /bin/bash -c \ 'python3 benchmark.py --model $(huggingface-downloader TheBloke/Llama-2-7B-GGUF/llama-2-7b.Q4_K_S.gguf) \ --prompt "很久很久以前," \ --n-predict 128 --ctx-size 192 --batch-size 192 \ --n-gpu-layers 999 --threads $(nproc)'
| 模型 | 量化方式 | 内存(MB) |
|---|---|---|
TheBloke/Llama-2-7B-GGUF | llama-2-7b.Q4_K_S.gguf | 5,268 |
TheBloke/Llama-2-13B-GGUF | llama-2-13b.Q4_K_S.gguf | 8,609 |
TheBloke/LLaMA-30b-GGUF | llama-30b.Q4_K_S.gguf | 19,045 |
TheBloke/Llama-2-70B-GGUF | llama-2-70b.Q4_K_S.gguf | 37,655 |
llama_cpp:0.2.57 | |
|---|---|
| 别名 | llama_cpp |
| 依赖系统 | L4T ['>=34.1.0'] |
| 依赖项 | build-essential cuda cudnn python cmake numpy huggingface_hub |
| 被依赖项 | langchain langchain:samples text-generation-webui:1.7 text-generation-webui:6a7cd01 text-generation-webui:main |
| Dockerfile | Dockerfile |
| 仓库/标签 | 日期 | 架构 | 大小 |
|---|---|---|---|
dustynv/llama_cpp:ggml-r35.2.1 | 2023-12-05 | arm64 | 5.2GB |
dustynv/llama_cpp:ggml-r35.3.1 | 2023-12-06 | arm64 | 5.2GB |
dustynv/llama_cpp:ggml-r35.4.1 | 2023-12-19 | arm64 | 5.2GB |
dustynv/llama_cpp:ggml-r36.2.0 | 2023-12-19 | arm64 | 5.1GB |
dustynv/llama_cpp:gguf-r35.2.1 | 2023-12-15 | arm64 | 5.1GB |
dustynv/llama_cpp:gguf-r35.3.1 | 2023-12-19 | arm64 | 5.2GB |
dustynv/llama_cpp:gguf-r35.4.1 | 2023-12-15 | arm64 | 5.1GB |
dustynv/llama_cpp:gguf-r36.2.0 | 2023-12-19 | arm64 | 5.1GB |
dustynv/llama_cpp:r35.2.1 | 2023-08-29 | arm64 | 5.2GB |
dustynv/llama_cpp:r35.3.1 | 2023-08-15 | arm64 | 5.2GB |
dustynv/llama_cpp:r35.4.1 | 2023-08-13 | arm64 | 5.1GB |
dustynv/llama_cpp:r36.2.0 | 2024-02-22 | arm64 | 5.3GB |
容器镜像与其他次要版本的JetPack/L4T兼容:
• L4T R32.7容器可在其他L4T R32.7版本(JetPack 4.6+)上运行
• L4T R35.x容器可在其他L4T R35.x版本(JetPack 5.1+)上运行
可使用jetson-containers run和autotag启动容器,或手动构建docker run命令:
# 自动拉取或构建兼容的容器镜像 jetson-containers run $(autotag llama_cpp) # 或显式指定上述容器镜像之一 jetson-containers run dustynv/llama_cpp:r36.2.0 # 或使用'docker run'(指定镜像和挂载等) sudo docker run --runtime nvidia -it --rm --network=host dustynv/llama_cpp:r36.2.0
jetson-containers run将参数转发给docker run,并添加一些默认值(如--runtime nvidia、挂载/data缓存、检测设备)
autotag会找到与您的JetPack/L4T版本兼容的容器镜像——本地、从注册表拉取或构建。
要将主机目录挂载到容器中,使用-v或--volume标志:
jetson-containers run -v /主机路径:/容器路径 $(autotag llama_cpp)
要启动容器运行命令而非交互式shell:
jetson-containers run $(autotag llama_cpp) my_app --abc xyz
可传递任何docker run支持的选项,执行前会打印完整命令。
若如上所示使用autotag,需要时会提示构建容器。要手动构建,先完成系统设置,然后运行:
jetson-containers build llama_cpp
上述依赖项将构建到容器中,并在构建过程中进行测试。使用--help查看构建选项。
免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。
免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。
当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。
通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。
先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。
使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤
在 Linux 系统上配置轩辕镜像源,支持主流发行版
在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统
在 Docker Compose 中使用轩辕镜像加速,支持容器编排
在 k8s 中配置 containerd 使用轩辕镜像加速
在宝塔面板中配置轩辕镜像加速,提升服务器管理效率
在 Synology 群晖NAS系统中配置轩辕镜像加速
在飞牛fnOS系统中配置轩辕镜像加速
在极空间NAS中配置轩辕镜像加速
在爱快ikuai系统中配置轩辕镜像加速
在绿联NAS系统中配置轩辕镜像加速
在威联通NAS系统中配置轩辕镜像加速
在 Podman 中配置轩辕镜像加速,支持多系统
配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤
无需登录即可使用轩辕镜像加速服务,更加便捷高效
需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429