轩辕镜像
轩辕镜像专业版
个人中心搜索镜像
交易
充值流量我的订单
工具
工单支持镜像收录Run 助手IP 归属地密码生成Npm 源Pip 源
帮助
常见问题我要吐槽
其他
关于我们网站地图

官方QQ群: 13763429

轩辕镜像
镜像详情
roboflow/roboflow-inference-server-trt
官方博客使用教程热门镜像工单支持
本站面向开发者与科研用户,提供开源镜像的搜索和下载加速服务。
所有镜像均来源于原始开源仓库,本站不存储、不修改、不传播任何镜像内容。
轩辕镜像 - 国内开发者首选的专业 Docker 镜像下载加速服务平台 - 官方QQ群:13763429 👈点击免费获得技术支持。
本站面向开发者与科研用户,提供开源镜像的搜索和下载加速服务。所有镜像均来源于原始开源仓库,本站不存储、不修改、不传播任何镜像内容。

本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com

roboflow-inference-server-trt Docker 镜像下载 - 轩辕镜像

roboflow-inference-server-trt 镜像详细信息和使用指南

roboflow-inference-server-trt 镜像标签列表和版本信息

roboflow-inference-server-trt 镜像拉取命令和加速下载

roboflow-inference-server-trt 镜像使用说明和配置指南

Docker 镜像加速服务 - 轩辕镜像平台

国内开发者首选的 Docker 镜像加速平台

极速拉取 Docker 镜像服务

相关 Docker 镜像推荐

热门 Docker 镜像下载

roboflow-inference-server-trt
roboflow/roboflow-inference-server-trt

roboflow-inference-server-trt 镜像详细信息

roboflow-inference-server-trt 镜像标签列表

roboflow-inference-server-trt 镜像使用说明

roboflow-inference-server-trt 镜像拉取命令

Docker 镜像加速服务

轩辕镜像平台优势

镜像下载指南

相关 Docker 镜像推荐

Roboflow官方推理服务器,针对TRT目标设备提供推理服务
0 次下载activeroboflow镜像
🚀轩辕镜像专业版更稳定💎一键安装 Docker 配置镜像源
中文简介版本下载
🚀轩辕镜像专业版更稳定💎一键安装 Docker 配置镜像源

roboflow-inference-server-trt 镜像详细说明

roboflow-inference-server-trt 使用指南

roboflow-inference-server-trt 配置说明

roboflow-inference-server-trt 官方文档

Roboflow Inference Server (TRT Targets) 镜像文档

1. 镜像概述和主要用途

1.1 概述

Roboflow Inference Server (TRT Targets) 是 Roboflow 官方推出的推理服务器 Docker 镜像,专为 NVIDIA TensorRT (TRT) 优化,旨在为计算机视觉模型提供高性能推理服务。该镜像集成了 Roboflow 模型管理能力与 TensorRT 的深度学***推理加速技术,支持快速部署预训练或自定义训练的计算机视觉模型。

1.2 主要用途

  • 为 Roboflow 平台训练的计算机视觉模型(如目标检测、分类、分割模型)提供生产级推理服务
  • 利用 TensorRT 优化实现低延迟、高吞吐量的模型推理
  • 通过标准化接口(REST/gRPC)简化模型与应用系统的集成

2. 核心功能和特性

2.1 性能优化

  • TensorRT 深度整合:利用 TensorRT 进行模型优化(层融合、精度校准、内核自动调优),显著提升推理速度
  • 多精度支持:支持 FP32/FP16/INT8 精度模式,平衡推理性能与精度需求
  • GPU 加速:充分利用 NVIDIA GPU 硬件能力,支持多 GPU 并行推理

2.2 模型兼容性

  • 原生支持 Roboflow 模型格式(通过 Roboflow API 直接拉取模型)
  • 兼容 ONNX 标准格式模型(需转换为 TensorRT 引擎)
  • 支持多模型并行加载与推理

2.3 接口与集成

  • REST API:提供 HTTP 接口,支持 JSON 输入输出,易于通过 curl、Python 等工具调用
  • gRPC 接口:提供高性能二进制协议,适用于低延迟、高并发场景
  • 健康检查接口:内置 /health 端点,便于监控服务状态

2.4 部署灵活性

  • 支持自定义模型路径(本地挂载或远程拉取)
  • 可配置推理参数(批处理大小、并发数、GPU 资源分配)
  • 日志与指标输出(支持 Prometheus 监控集成)

3. 使用场景和适用范围

3.1 典型使用场景

  • 实时计算机视觉应用:如智能监控(实时目标检测)、工业质检(缺陷检测)、自动驾驶感知
  • 边缘计算部署:在边缘 GPU 设备(如 NVIDIA Jetson、边缘服务器)上提供本地化推理
  • 高并发推理服务:为大规模应用(如电商商品识别、社交媒体内容审核)提供高吞吐量推理支持
  • 模型原型验证:快速部署 Roboflow 训练的模型进行性能测试与应用集成验证

3.2 适用范围

  • 用户:计算机视觉开发者、企业技术团队、需要部署 Roboflow 模型的生产环境
  • 硬件:配备 NVIDIA GPU 的设备(需支持 TensorRT,如 Turing 架构及以上 GPU)
  • 模型来源:Roboflow 平台训练的模型、导出为 ONNX 格式的自定义模型

4. 使用方法和配置说明

4.1 前提条件

  • 安装 Docker Engine (20.10+)
  • 安装 NVIDIA Docker 运行时(nvidia-docker2),确保 Docker 可访问 GPU
  • 具备可用的 NVIDIA GPU(计算能力 ≥ 6.0,支持 TensorRT 8.0+)
  • (可选)Roboflow 账号及 API Key(用于拉取 Roboflow 托管模型)

4.2 镜像获取

从 Docker Hub 或 Roboflow 官方镜像仓库拉取镜像:

docker pull roboflow/roboflow-inference-trt:latest

4.3 启动容器(docker run)

4.3.1 基础启动命令(拉取 Roboflow 托管模型)

docker run --gpus all \
  -p 8080:8080 \  # REST API 端口映射
  -p 9001:9001 \  # gRPC 端口映射
  -e ROBOFLOW_API_KEY="your_roboflow_api_key" \  # Roboflow API Key(必填)
  -e MODEL_ID="your_model_id/version" \  # 模型 ID 及版本(如 "my-detection-model/1")
  -e TRT_PRECISION="FP16" \  # TensorRT 精度模式(FP32/FP16/INT8,默认 FP32)
  roboflow/roboflow-inference-trt:latest

4.3.2 加载本地模型(挂载模型目录)

docker run --gpus all \
  -p 8080:8080 \
  -p 9001:9001 \
  -v /path/to/local/models:/models \  # 挂载本地模型目录到容器内 /models
  -e MODEL_PATH="/models/your_local_model" \  # 指定容器内模型路径
  -e TRT_PRECISION="INT8" \
  roboflow/roboflow-inference-trt:latest

4.4 Docker Compose 配置示例

创建 docker-compose.yml:

version: '3.8'
services:
  roboflow-inference-trt:
    image: roboflow/roboflow-inference-trt:latest
    runtime: nvidia  # 启用 NVIDIA 运行时(旧版 Docker)或使用 deploy.resources 配置(Docker 20.10+)
    deploy:
      resources:
        reservations:
          devices:
            - driver: nvidia
              count: all  # 使用所有 GPU
              capabilities: [gpu]
    ports:
      - "8080:8080"   # REST API
      - "9001:9001"   # gRPC API
    environment:
      - ROBOFLOW_API_KEY=your_roboflow_api_key
      - MODEL_ID=my-detection-model/1
      - TRT_PRECISION=FP16
      - BATCH_SIZE=4  # 推理批处理大小(默认 1)
      - GPU_MEMORY_FRACTION=0.8  # 分配 GPU 内存比例(0.0-1.0,默认 0.9)
    volumes:
      - ./models:/models  # 可选:挂载本地模型目录
    restart: unless-stopped

启动服务:

docker-compose up -d

4.5 验证服务可用性

服务启动后,通过 REST API 验证:

curl http://localhost:8080/health
# 预期响应:{"status": "healthy", "model_loaded": true}

5. 配置参数说明

5.1 环境变量

环境变量名描述默认值示例值
ROBOFLOW_API_KEYRoboflow API Key(从 Roboflow 控制台获取,用于拉取托管模型)无(必填)rf_abc123def456
MODEL_IDRoboflow 模型 ID 及版本(格式:model-name/version)无(必填)retail-product-detection/3
MODEL_PATH本地模型路径(优先级高于 MODEL_ID,需挂载目录)空/models/custom-model
TRT_PRECISIONTensorRT 精度模式(FP32/FP16/INT8)FP32INT8
PORTREST API 服务端口80808000
GRPC_PORTgRPC 服务端口90019090
BATCH_SIZE推理批处理大小(需模型支持动态批处理)14
GPU_MEMORY_FRACTION分配 GPU 内存比例(0.0-1.0,避免内存溢出)0.90.7
LOG_LEVEL日志级别(DEBUG/INFO/WARNING/ERROR)INFODEBUG
DISABLE_GRPC是否禁用 gRPC 服务(true/false)falsetrue

5.2 端口映射

端口用途协议配置变量
8080REST API 服务端口HTTPPORT
9001gRPC 服务端口gRPCGRPC_PORT

6. 注意事项

  • GPU 依赖:必须使用 NVIDIA GPU,且安装对应版本的 CUDA 驱动(需支持 TensorRT 最低版本要求,参考 TensorRT 文档)
  • 模型兼容性:非 Roboflow 模型需提前转换为 ONNX 格式,并确保与 TensorRT 兼容(可通过 trtexec 工具验证)
  • 权限配置:本地模型目录需确保容器内用户有读取权限(可通过 --user 参数指定用户 ID)
  • 性能调优:高并发场景建议调整 BATCH_SIZE 和 GPU_MEMORY_FRACTION,并通过监控工具(如 nvidia-smi)观察 GPU 利用率
  • 版本锁定:生产环境建议指定具体版本标签(如 v0.1.0)而非 latest,避免版本变更风险
查看更多 roboflow-inference-server-trt 相关镜像 →
roboflow/roboflow-inference-server-cpu logo
roboflow/roboflow-inference-server-cpu
by Roboflow
认证
官方Roboflow推理服务器,适用于CPU平台的推理任务运行。
2100K+ pulls
上次更新:1 天前
roboflow/roboflow-inference-server-gpu logo
roboflow/roboflow-inference-server-gpu
by Roboflow
认证
暂无描述
1100K+ pulls
上次更新:1 天前

常见问题

轩辕镜像免费版与专业版有什么区别?

免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。

轩辕镜像免费版与专业版有分别支持哪些镜像?

免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。

流量耗尽错误提示

当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。

410 错误问题

通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。

manifest unknown 错误

先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。

镜像拉取成功后,如何去掉轩辕镜像域名前缀?

使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。

查看全部问题→

轩辕镜像下载加速使用手册

探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式

🔐

登录方式进行 Docker 镜像下载加速教程

通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤

🐧

Linux Docker 镜像下载加速教程

在 Linux 系统上配置轩辕镜像源,支持主流发行版

🖥️

Windows/Mac Docker 镜像下载加速教程

在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统

📦

Docker Compose 镜像下载加速教程

在 Docker Compose 中使用轩辕镜像加速,支持容器编排

📋

K8s containerd 镜像下载加速教程

在 k8s 中配置 containerd 使用轩辕镜像加速

🔧

宝塔面板 Docker 镜像下载加速教程

在宝塔面板中配置轩辕镜像加速,提升服务器管理效率

💾

群晖 NAS Docker 镜像下载加速教程

在 Synology 群晖NAS系统中配置轩辕镜像加速

🐂

飞牛fnOS Docker 镜像下载加速教程

在飞牛fnOS系统中配置轩辕镜像加速

📱

极空间 NAS Docker 镜像下载加速教程

在极空间NAS中配置轩辕镜像加速

⚡

爱快路由 ikuai Docker 镜像下载加速教程

在爱快ikuai系统中配置轩辕镜像加速

🔗

绿联 NAS Docker 镜像下载加速教程

在绿联NAS系统中配置轩辕镜像加速

🌐

威联通 NAS Docker 镜像下载加速教程

在威联通NAS系统中配置轩辕镜像加速

📦

Podman Docker 镜像下载加速教程

在 Podman 中配置轩辕镜像加速,支持多系统

📚

ghcr、Quay、nvcr、k8s、gcr 等仓库下载镜像加速教程

配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤

🚀

专属域名方式进行 Docker 镜像下载加速教程

无需登录即可使用轩辕镜像加速服务,更加便捷高效

需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429

商务:17300950906
|©2024-2025 源码跳动
商务合作电话:17300950906|Copyright © 2024-2025 杭州源码跳动科技有限公司. All rights reserved.