
dustynv/nano_llmnano_llm是基于NanoLLM库构建的Docker镜像,专为Jetson边缘设备优化。NanoLLM是一个轻量级、高性能的库,核心用途包括:
官方资源:
| 仓库/标签 | 发布日期 | 架构 | 大小 |
|---|---|---|---|
dustynv/nano_llm:24.4-r35.4.1 | 2024-04-15 | arm64 | 8.5GB |
dustynv/nano_llm:24.4-r36.2.0 | 2024-04-15 | arm64 | 9.7GB |
dustynv/nano_llm:r35.4.1 | 2024-04-15 | arm64 | 8.5GB |
dustynv/nano_llm:r36.2.0 | 2024-04-15 | arm64 | 9.7GB |
兼容性说明:容器镜像兼容同主版本的JetPack/L4T系统:
- L4T R35.x容器可运行于其他L4T R35.x版本(JetPack 5.1+)
- L4T R36.x容器可运行于其他L4T R36.x版本
镜像内置以下关键依赖组件,确保开箱即用的推理能力:
jetson-containers工具提供自动化镜像管理(自动拉取/构建兼容版本),简化部署流程:
bash# 自动选择与当前JetPack兼容的镜像(推荐) jetson-containers run $(autotag nano_llm) # 显式指定镜像版本(例如适用于L4T R36.2.0) jetson-containers run dustynv/nano_llm:24.4-r36.2.0
说明:
jetson-containers run会自动添加默认配置(如--runtime nvidia、挂载/data缓存目录、设备检测),并将参数转发给docker run。
手动构建docker run命令,需确保包含GPU运行时与网络配置:
bashsudo docker run --runtime nvidia -it --rm --network=host \ dustynv/nano_llm:24.4-r36.2.0
--runtime nvidia:启用NVIDIA容器运行时,支持GPU加速-it:交互式终端,便于调试与命令行操作--rm:容器退出后自动删除--network=host:使用主机网络,便于访问本地服务(如摄像头、模型服务器)通过-v参数挂载主机目录,实现模型、数据或代码的持久化与共享:
bash# 将主机的模型目录挂载到容器内/data/models jetson-containers run -v /host/path/to/models:/data/models $(autotag nano_llm)
启动容器时直接执行命令(而非进入交互式shell):
bash# 示例:运行NanoLLM的模型转换工具 jetson-containers run $(autotag nano_llm) \ python -m nano_llm.convert --model TinyLlama/TinyLlama-1.1B-Chat-v1.0 --quantize int4
若需手动构建镜像(如自定义依赖或版本),先完成jetson-containers系统设置,再执行:
bashjetson-containers build nano_llm
构建过程会自动拉取依赖组件并进行测试。可通过jetson-containers build --help查看构建选项(如指定基础镜像、添加自定义包等)。
nano_llm:main:主分支最新版本,别名nano_llmnano_llm:24.4:2024年4月发布版本,包含r35.4.1和r36.2.0两个子标签(对应不同L4T版本)





manifest unknown 错误
TLS 证书验证失败
DNS 解析超时
410 错误:版本过低
402 错误:流量耗尽
身份认证失败错误
429 限流错误
凭证保存错误
来自真实用户的反馈,见证轩辕镜像的优质服务