本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com
Roboflow Inference Server (CPU Targets) 是官方推出的轻量级容器镜像,专为在CPU环境中部署计算机视觉模型推理服务设计。该镜像基于Roboflow Inference框架构建,针对x86/ARM架构CPU进行了优化,可直接运行预训练计算机视觉模型(如目标检测、图像分类、实例分割等),无需依赖GPU硬件资源。
docker run -p 9001:9001 \ --env ROBOFLOW_MODEL="yolov8n-coco" \ # Roboflow Universe公开模型ID(如"yolov8n-coco") --env ROBOFLOW_VERSION="1" \ # 模型版本号 --env PORT="9001" \ # 服务端口 roboflow/roboflow-inference-server-cpu:latest
docker run -p 9001:9001 \ --env ROBOFLOW_API_KEY="your_roboflow_api_key" \ # 从Roboflow账号设置中获取 --env ROBOFLOW_MODEL="your-private-model" \ # 私有模型ID --env ROBOFLOW_VERSION="3" \ # 模型版本 --env PORT="9001" \ roboflow/roboflow-inference-server-cpu:latest
创建docker-compose.yml文件:
version: "3.8" services: roboflow-inference: image: roboflow/roboflow-inference-server-cpu:latest container_name: roboflow-inference-cpu ports: - "9001:9001" environment: - ROBOFLOW_MODEL="yolov8n-coco" # 模型ID - ROBOFLOW_VERSION="1" # 模型版本 - PORT="9001" # 服务端口 - INFERENCE_CONFIDENCE_THRESHOLD="0.5" # 推理置信度阈值(默认0.5) - INFERENCE_IOU_THRESHOLD="0.45" # IOU阈值(目标检测用,默认0.45) - LOG_LEVEL="info" # 日志级别(debug/info/warn/error) restart: unless-stopped volumes: - ./model-cache:/app/cache # 挂载模型缓存目录(可选,加速重复启动)
启动服务:
docker-compose up -d
| 环境变量名 | 描述 | 默认值 | 是否必填 |
|---|---|---|---|
ROBOFLOW_MODEL | 模型ID(Roboflow Universe或私有模型) | - | 是 |
ROBOFLOW_VERSION | 模型版本号 | "1" | 是 |
ROBOFLOW_API_KEY | Roboflow API密钥(私有模型需提供) | - | 否(公开模型无需) |
PORT | 服务监听端口 | 9001 | 否 |
INFERENCE_CONFIDENCE_THRESHOLD | 推理结果置信度阈值(0.0-1.0) | 0.5 | 否 |
INFERENCE_IOU_THRESHOLD | 目标检测IOU阈值(0.0-1.0) | 0.45 | 否 |
INFERENCE_TIMEOUT | 单次推理超时时间(秒) | 30 | 否 |
LOG_LEVEL | 日志级别(debug/info/warn/error) | "info" | 否 |
CACHE_DIR | 模型缓存目录 | "/app/cache" | 否 |
请求(curl):
curl -X POST http://localhost:9001/infer \ -H "Content-Type: application/json" \ -d '{"image": "base64_encoded_image_string", "confidence": 0.5}'
响应(JSON):
{ "predictions": [ { "class": "person", "confidence": 0.92, "x": 320, "y": 450, "width": 180, "height": 320 }, // ... 更多检测结果 ], "image": { "width": 640, "height": 480 } }
请求:
curl -X POST http://localhost:9001/classify \ -H "Content-Type: application/json" \ -d '{"image": "base64_encoded_image_string"}'
响应:
{ "classifications": [ { "class": "cat", "confidence": 0.89 }, { "class": "dog", "confidence": 0.05 } ] }
CACHE_DIR避免重复下载docker logs <container_id>查看实时日志,调试模型加载或推理错误latest获取最新稳定版,或指定版本标签(如v0.1.0)锁定版本docker pull roboflow/roboflow-inference-server-cpu:latest获取最新镜像后重启容器免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。
免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。
当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。
通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。
先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。
使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤
在 Linux 系统上配置轩辕镜像源,支持主流发行版
在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统
在 Docker Compose 中使用轩辕镜像加速,支持容器编排
在 k8s 中配置 containerd 使用轩辕镜像加速
在宝塔面板中配置轩辕镜像加速,提升服务器管理效率
在 Synology 群晖NAS系统中配置轩辕镜像加速
在飞牛fnOS系统中配置轩辕镜像加速
在极空间NAS中配置轩辕镜像加速
在爱快ikuai系统中配置轩辕镜像加速
在绿联NAS系统中配置轩辕镜像加速
在威联通NAS系统中配置轩辕镜像加速
在 Podman 中配置轩辕镜像加速,支持多系统
配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤
无需登录即可使用轩辕镜像加速服务,更加便捷高效
需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429