
dustynv/onnxruntimeonnxruntime Docker镜像是专为NVIDIA Jetson嵌入式设备构建的ONNX模型运行环境,提供GPU加速的ONNX(Open Neural Network Exchange)模型推理能力。该镜像适配不同版本的L4T(Linux for Tegra)系统,集成了CUDA、CuDNN、TensorRT等依赖库,确保在Jetson平台上高效运行ONNX格式的深度学习模型。镜像包含多个版本标签,分别对应不同的onnxruntime版本和L4T系统要求,并提供构建工具版本用于自定义编译。
-builder标签版本,支持自定义构建onnxruntime-gpu wheel/opt目录下,方便提取使用| 镜像标签 | 说明 |
|---|---|
onnxruntime:1.19 | 别名:onnxruntime系统要求:L4T ['>=36', '>=cu124'] 依赖项:build-essential、cuda、cudnn、python、tensorrt、cmake、numpy、onnx 说明:构建的onnxruntime-gpu wheel保存在 /opt下 |
onnxruntime:1.19-builder | 别名:onnxruntime:builder系统要求:L4T ['>=36', '>=cu124'] 依赖项:同上 说明:构建的onnxruntime-gpu wheel保存在 /opt下 |
onnxruntime:1.17 | 别名:onnxruntime系统要求:L4T ['>=36', '<=cu122'] 依赖项:同上 说明:构建的onnxruntime-gpu wheel保存在 /opt下 |
onnxruntime:1.17-builder | 别名:onnxruntime:builder系统要求:L4T ['>=36', '<=cu122'] 依赖项:同上 说明:构建的onnxruntime-gpu wheel保存在 /opt下 |
onnxruntime:1.16.3 | 别名:onnxruntime系统要求:L4T ['==35.*'] 依赖项:同上 说明:构建的onnxruntime-gpu wheel保存在 /opt下 |
onnxruntime:1.16.3-builder | 别名:onnxruntime:builder系统要求:L4T ['==35.*'] 依赖项:同上 说明:构建的onnxruntime-gpu wheel保存在 /opt下 |
onnxruntime:1.11 | 别名:onnxruntime系统要求:L4T ['==32.*'] 依赖项:同上 说明:构建的onnxruntime-gpu wheel保存在 /opt下 |
onnxruntime:1.11-builder | 别名:onnxruntime:builder系统要求:L4T ['==32.*'] 依赖项:同上 说明:构建的onnxruntime-gpu wheel保存在 /opt下 |
| 仓库/标签 | 日期 | 架构 | 大小 |
|---|---|---|---|
dustynv/onnxruntime:r32.7.1 | 2023-12-11 | arm64 | 0.5GB |
dustynv/onnxruntime:r35.2.1 | 2023-12-12 | arm64 | 5.2GB |
dustynv/onnxruntime:r35.3.1 | 2023-11-13 | arm64 | 5.2GB |
dustynv/onnxruntime:r35.4.1 | 2023-11-08 | arm64 | 5.1GB |
dustynv/onnxruntime:r36.2.0 | 2023-12-12 | arm64 | 6.9GB |
兼容性说明:
- L4T R32.7容器可在其他L4T R32.7版本(JetPack 4.6+)上运行
- L4T R35.x容器可在其他L4T R35.x版本(JetPack 5.1+)上运行
jetson-containers工具可自动处理兼容性检查和默认配置,支持自动拉取或构建兼容镜像:
bash# 自动选择与当前JetPack/L4T兼容的镜像 jetson-containers run $(autotag onnxruntime) # 显式指定镜像版本 jetson-containers run dustynv/onnxruntime:r36.2.0
手动指定Docker参数运行容器:
bashsudo docker run --runtime nvidia -it --rm --network=host dustynv/onnxruntime:r36.2.0
说明:
--runtime nvidia启用NVIDIA运行时,-it提供交互式终端,--rm退出时自动删除容器,--network=host使用主机网络
使用-v参数将主机目录挂载到容器中,方便数据共享:
bashjetson-containers run -v /host/data:/container/data $(autotag onnxruntime)
在容器中直接执行命令,无需进入交互式终端:
bashjetson-containers run $(autotag onnxruntime) python3 /path/to/your/onnx_inference_script.py
如需手动构建镜像,先完成系统设置,然后执行:
bashjetson-containers build onnxruntime
构建过程会自动处理依赖项并进行测试。可添加--help查看更多构建选项:
bashjetson-containers build onnxruntime --help
构建的onnxruntime-gpu wheel保存在容器/opt目录下,可通过以下命令提取到主机:
bash# 启动容器并挂载主机目录 sudo docker run --runtime nvidia -it --rm -v /host/opt:/container/opt dustynv/onnxruntime:r36.2.0 # 在容器内复制wheel文件到挂载目录 cp /opt/onnxruntime_gpu-*.whl /container/opt/
所有onnxruntime镜像均包含以下核心依赖项:






manifest unknown 错误
TLS 证书验证失败
DNS 解析超时
410 错误:版本过低
402 错误:流量耗尽
身份认证失败错误
429 限流错误
凭证保存错误
来自真实用户的反馈,见证轩辕镜像的优质服务