本站面向开发者与科研用户,提供开源镜像的搜索和下载加速服务。
所有镜像均来源于原始开源仓库,本站不存储、不修改、不传播任何镜像内容。

nano_llm Docker 镜像下载 - 轩辕镜像

nano_llm 镜像详细信息和使用指南

nano_llm 镜像标签列表和版本信息

nano_llm 镜像拉取命令和加速下载

nano_llm 镜像使用说明和配置指南

Docker 镜像加速服务 - 轩辕镜像平台

国内开发者首选的 Docker 镜像加速平台

极速拉取 Docker 镜像服务

相关 Docker 镜像推荐

热门 Docker 镜像下载

nano_llm
dustynv/nano_llm

nano_llm 镜像详细信息

nano_llm 镜像标签列表

nano_llm 镜像使用说明

nano_llm 镜像拉取命令

Docker 镜像加速服务

轩辕镜像平台优势

镜像下载指南

相关 Docker 镜像推荐

用于在NVIDIA Jetson边缘设备上部署和运行大语言模型的Docker镜像,针对嵌入式硬件优化,支持本地高效推理。
0 次下载activedustynv镜像

nano_llm 镜像详细说明

nano_llm 使用指南

nano_llm 配置说明

nano_llm 官方文档

nano_llm Docker镜像文档

1. 镜像概述和主要用途

nano_llm是基于NanoLLM库构建的Docker镜像,专为Jetson边缘设备优化。NanoLLM是一个轻量级、高性能的库,核心用途包括:

  • 大语言模型(LLM)的高效推理部署
  • 多模态智能体(结合视觉、音频等感知能力)的构建与运行
  • 在资源受限的边缘环境中实现低延迟AI交互

***资源

  • 代码仓库:github.com/dusty-nv/NanoLLM
  • ***文档:dusty-nv.github.io/NanoLLM
  • 教程案例:Jetson AI Lab的Live Llava、NanoVLM、SLM

2. 核心功能和特性

2.1 性能优化

  • 针对Jetson硬件架构深度优化,支持GPU加速推理
  • 集成TensorRT、ONNX Runtime等推理框架,实现低延迟模型部署
  • 支持模型量化与压缩,适配边缘设备有限内存资源

2.2 多模态支持

  • 融合视觉(通过OpenCV、torchvision)、音频(通过RIVA Client)处理能力
  • 支持视觉语言模型(VLM)如LLaVA、NanoVLM的端到端部署
  • 集成jetson-inference实现实时图像/视频分析

2.3 技术栈集成

  • 深度学***框架:PyTorch 2.2、CUDA 11.4、cuDNN
  • 推理加速:TensorRT、torch2trt、MLC
  • 向量数据库:FAISS、NanoDB(支持知识库检索增强生成,RAG)
  • Hugging Face生态:transformers、huggingface_hub(模型下载与管理)

3. 使用场景和适用范围

3.1 适用设备

  • Jetson系列边缘计算设备(需L4T系统版本≥35,对应JetPack 5.1+)
  • 架构支持:ARM64

3.2 典型场景

  • 边缘LLM部署:在Jetson设备上运行小语言模型(SLM),实现本地智能交互
  • 实时多模态交互:如Live Llava教程所示,结合摄像头输入实现视觉问答
  • 边缘智能体:构建具备语言理解、视觉感知、知识库检索能力的边缘AI系统
  • 低延迟推理服务:为工业检测、机器人、智能终端提供本地化AI推理支持

4. 容器镜像信息

仓库/标签发布日期架构大小
dustynv/nano_llm:24.4-r35.4.12024-04-15arm648.5GB
dustynv/nano_llm:24.4-r36.2.02024-04-15arm649.7GB
dustynv/nano_llm:r35.4.12024-04-15arm648.5GB
dustynv/nano_llm:r36.2.02024-04-15arm649.7GB

兼容性说明:容器镜像兼容同主版本的JetPack/L4T系统:

  • L4T R35.x容器可运行于其他L4T R35.x版本(JetPack 5.1+)
  • L4T R36.x容器可运行于其他L4T R36.x版本

5. 核心依赖项

镜像内置以下关键依赖组件,确保开箱即用的推理能力:

5.1 基础构建工具

  • build-essential、cmake、python、rust

5.2 GPU加速与计算

  • CUDA 11.4、cuDNN、cuda-python、TensorRT

5.3 深度学***框架

  • PyTorch 2.2、torchvision、torchaudio、torch2trt

5.4 推理与模型支持

  • ONNX、ONNX Runtime、MLC、transformers

5.5 多模态与数据处理

  • OpenCV、gstreamer、jetson-inference、numpy

5.6 向量数据库与检索

  • FAISS、FAISS Lite、NanoDB

5.7 音频与交互

  • RIVA Client (Python)、huggingface_hub

6. 使用方法和配置说明

6.1 运行容器

6.1.1 使用jetson-containers(推荐)

jetson-containers工具提供自动化镜像管理(自动拉取/构建兼容版本),简化部署流程:

bash
# 自动选择与当前JetPack兼容的镜像(推荐)
jetson-containers run $(autotag nano_llm)

# 显式指定镜像版本(例如适用于L4T R36.2.0)
jetson-containers run dustynv/nano_llm:24.4-r36.2.0

说明jetson-containers run会自动添加默认配置(如--runtime nvidia、挂载/data缓存目录、设备检测),并将参数转发给docker run

6.1.2 使用docker run命令

手动构建docker run命令,需确保包含GPU运行时与网络配置:

bash
sudo docker run --runtime nvidia -it --rm --network=host \
  dustynv/nano_llm:24.4-r36.2.0
  • --runtime nvidia:启用NVIDIA容器运行时,支持GPU加速
  • -it:交互式终端,便于调试与命令行操作
  • --rm:容器退出后自动删除
  • --network=host:使用主机网络,便于访问本地服务(如摄像头、模型服务器)

6.1.3 挂载数据卷

通过-v参数挂载主机目录,实现模型、数据或代码的持久化与共享:

bash
# 将主机的模型目录挂载到容器内/data/models
jetson-containers run -v /host/path/to/models:/data/models $(autotag nano_llm)

6.1.4 运行指定命令

启动容器时直接执行命令(而非进入交互式shell):

bash
# 示例:运行NanoLLM的模型转换工具
jetson-containers run $(autotag nano_llm) \
  python -m nano_llm.convert --model TinyLlama/TinyLlama-1.1B-Chat-v1.0 --quantize int4

6.2 构建容器

若需手动构建镜像(如自定义依赖或版本),先完成jetson-containers系统设置,再执行:

bash
jetson-containers build nano_llm

构建过程会自动拉取依赖组件并进行测试。可通过jetson-containers build --help查看构建选项(如指定基础镜像、添加自定义包等)。

7. 版本说明

7.1 主要标签

  • nano_llm:main:主分支最新版本,别名nano_llm
  • nano_llm:24.4:2024年4月发布版本,包含r35.4.1和r36.2.0两个子标签(对应不同L4T版本)

7.2 系统要求

  • 宿主系统:L4T ≥35(JetPack 5.1+)
  • 硬件:Jetson AGX Orin、Jetson Orin NX、Jetson Orin Nano等支持L4T 35+的设备

用户好评

来自真实用户的反馈,见证轩辕镜像的优质服务

oldzhang的头像

oldzhang

运维工程师

Linux服务器

5

"Docker加速体验非常流畅,大镜像也能快速完成下载。"

Nana的头像

Nana

后端开发

Mac桌面

4.9

"配置Docker镜像源后,拉取速度快了数倍,开发体验提升明显。"

Qiang的头像

Qiang

平台研发

K8s集群

5

"轩辕镜像在K8s集群中表现很稳定,容器部署速度明显加快。"

小敏的头像

小敏

测试工程师

Windows桌面

4.8

"Docker镜像下载不再超时,测试环境搭建更加高效。"

晨曦的头像

晨曦

DevOps工程师

宝塔面板

5

"配置简单,Docker镜像源稳定,适合快速部署环境。"

阿峰的头像

阿峰

资深开发

群晖NAS

5

"在群晖NAS上配置后,镜像下载速度飞快,非常适合家庭实验环境。"

俊仔的头像

俊仔

后端工程师

飞牛NAS

4.9

"Docker加速让容器搭建顺畅无比,再也不用等待漫长的下载。"

Lily的头像

Lily

测试经理

Linux服务器

4.8

"镜像源覆盖面广,更新及时,团队一致反馈体验不错。"

浩子的头像

浩子

云平台工程师

Podman容器

5

"使用轩辕镜像后,Podman拉取镜像稳定无比,生产环境可靠。"

Kai的头像

Kai

运维主管

爱快路由

5

"爱快系统下配置加速服务,Docker镜像拉取速度提升非常大。"

翔子的头像

翔子

安全工程师

Linux服务器

4.9

"镜像源稳定性高,安全合规,Docker拉取无忧。"

亮哥的头像

亮哥

架构师

K8s containerd

5

"大规模K8s集群下镜像加速效果显著,节省了大量时间。"

慧慧的头像

慧慧

平台开发

Docker Compose

4.9

"配置Compose镜像加速后,整体构建速度更快了。"

Tina的头像

Tina

技术支持

Windows桌面

4.8

"配置简单,镜像拉取稳定,适合日常开发环境。"

宇哥的头像

宇哥

DevOps Leader

极空间NAS

5

"在极空间NAS上使用Docker加速,体验流畅稳定。"

小静的头像

小静

数据工程师

Linux服务器

4.9

"Docker镜像源下载速度快,大数据环境搭建轻松完成。"

磊子的头像

磊子

SRE

宝塔面板

5

"使用轩辕镜像后,CI/CD流程整体快了很多,值得推荐。"

阿Yang的头像

阿Yang

前端开发

Mac桌面

4.9

"国内网络环境下,Docker加速非常给力,前端环境轻松搭建。"

Docker迷的头像

Docker迷

架构师

威联通NAS

5

"威联通NAS下配置镜像加速后,Docker体验比官方源好很多。"

方宇的头像

方宇

系统工程师

绿联NAS

5

"绿联NAS支持加速配置,Docker镜像下载快且稳定。"