本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com
Roboflow Inference Server (TRT Targets) 是 Roboflow 官方推出的推理服务器 Docker 镜像,专为 NVIDIA TensorRT (TRT) 优化,旨在为计算机视觉模型提供高性能推理服务。该镜像集成了 Roboflow 模型管理能力与 TensorRT 的深度学***推理加速技术,支持快速部署预训练或自定义训练的计算机视觉模型。
/health 端点,便于监控服务状态nvidia-docker2),确保 Docker 可访问 GPU从 Docker Hub 或 Roboflow 官方镜像仓库拉取镜像:
docker pull roboflow/roboflow-inference-trt:latest
docker run)docker run --gpus all \ -p 8080:8080 \ # REST API 端口映射 -p 9001:9001 \ # gRPC 端口映射 -e ROBOFLOW_API_KEY="your_roboflow_api_key" \ # Roboflow API Key(必填) -e MODEL_ID="your_model_id/version" \ # 模型 ID 及版本(如 "my-detection-model/1") -e TRT_PRECISION="FP16" \ # TensorRT 精度模式(FP32/FP16/INT8,默认 FP32) roboflow/roboflow-inference-trt:latest
docker run --gpus all \ -p 8080:8080 \ -p 9001:9001 \ -v /path/to/local/models:/models \ # 挂载本地模型目录到容器内 /models -e MODEL_PATH="/models/your_local_model" \ # 指定容器内模型路径 -e TRT_PRECISION="INT8" \ roboflow/roboflow-inference-trt:latest
创建 docker-compose.yml:
version: '3.8' services: roboflow-inference-trt: image: roboflow/roboflow-inference-trt:latest runtime: nvidia # 启用 NVIDIA 运行时(旧版 Docker)或使用 deploy.resources 配置(Docker 20.10+) deploy: resources: reservations: devices: - driver: nvidia count: all # 使用所有 GPU capabilities: [gpu] ports: - "8080:8080" # REST API - "9001:9001" # gRPC API environment: - ROBOFLOW_API_KEY=your_roboflow_api_key - MODEL_ID=my-detection-model/1 - TRT_PRECISION=FP16 - BATCH_SIZE=4 # 推理批处理大小(默认 1) - GPU_MEMORY_FRACTION=0.8 # 分配 GPU 内存比例(0.0-1.0,默认 0.9) volumes: - ./models:/models # 可选:挂载本地模型目录 restart: unless-stopped
启动服务:
docker-compose up -d
服务启动后,通过 REST API 验证:
curl http://localhost:8080/health # 预期响应:{"status": "healthy", "model_loaded": true}
| 环境变量名 | 描述 | 默认值 | 示例值 |
|---|---|---|---|
ROBOFLOW_API_KEY | Roboflow API Key(从 Roboflow 控制台获取,用于拉取托管模型) | 无(必填) | rf_abc123def456 |
MODEL_ID | Roboflow 模型 ID 及版本(格式:model-name/version) | 无(必填) | retail-product-detection/3 |
MODEL_PATH | 本地模型路径(优先级高于 MODEL_ID,需挂载目录) | 空 | /models/custom-model |
TRT_PRECISION | TensorRT 精度模式(FP32/FP16/INT8) | FP32 | INT8 |
PORT | REST API 服务端口 | 8080 | 8000 |
GRPC_PORT | gRPC 服务端口 | 9001 | 9090 |
BATCH_SIZE | 推理批处理大小(需模型支持动态批处理) | 1 | 4 |
GPU_MEMORY_FRACTION | 分配 GPU 内存比例(0.0-1.0,避免内存溢出) | 0.9 | 0.7 |
LOG_LEVEL | 日志级别(DEBUG/INFO/WARNING/ERROR) | INFO | DEBUG |
DISABLE_GRPC | 是否禁用 gRPC 服务(true/false) | false | true |
| 端口 | 用途 | 协议 | 配置变量 |
|---|---|---|---|
| 8080 | REST API 服务端口 | HTTP | PORT |
| 9001 | gRPC 服务端口 | gRPC | GRPC_PORT |
trtexec 工具验证)--user 参数指定用户 ID)BATCH_SIZE 和 GPU_MEMORY_FRACTION,并通过监控工具(如 nvidia-smi)观察 GPU 利用率v0.1.0)而非 latest,避免版本变更风险免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。
免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。
当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。
通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。
先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。
使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤
在 Linux 系统上配置轩辕镜像源,支持主流发行版
在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统
在 Docker Compose 中使用轩辕镜像加速,支持容器编排
在 k8s 中配置 containerd 使用轩辕镜像加速
在宝塔面板中配置轩辕镜像加速,提升服务器管理效率
在 Synology 群晖NAS系统中配置轩辕镜像加速
在飞牛fnOS系统中配置轩辕镜像加速
在极空间NAS中配置轩辕镜像加速
在爱快ikuai系统中配置轩辕镜像加速
在绿联NAS系统中配置轩辕镜像加速
在威联通NAS系统中配置轩辕镜像加速
在 Podman 中配置轩辕镜像加速,支持多系统
配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤
无需登录即可使用轩辕镜像加速服务,更加便捷高效
需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429