本镜像为基于 Intel® 架构模型库(Model Zoo for Intel® Architecture)的容器化解决方案,主要用于运行目标检测(object detection)工作负载。镜像集成了 Intel 优化的目标检测模型及运行环境,旨在简化 Intel 架构硬件上目标检测任务的部署与执行流程,充分利用 Intel 处理器的计算能力(如 AVX-512、Intel DL Boost 等技术)提升推理性能。
intel/ 命名空间下的镜像源)。镜像标签(tag)对应不同版本的模型与运行环境,具体标签及说明需参考 Intel® oneContainer Portal 或官方镜像仓库。基础拉取命令如下:
bashdocker pull intel/object-detection:<tag> # <tag> 需替换为具体版本标签
以下为基础运行命令(具体参数需根据镜像标签调整,参考官方文档):
bashdocker run -it --rm \ --name object-detection-workload \ -v /host/path/to/data:/container/data # 挂载本地数据目录(输入图像/视频) \ -v /host/path/to/output:/container/output # 挂载输出目录(检测结果) \ intel/object-detection:<tag> \ <detection-command> # 目标检测任务启动命令(如模型推理脚本,依赖镜像内置工具)
说明:
<detection-command>需根据镜像标签对应的模型类型调整,例如运行预训练 Faster R-CNN 模型的推理命令可能为python inference.py --model faster_rcnn --input /container/data/input.jpg(具体以官方标签说明为准)。
镜像的详细配置参数(如模型路径、推理精度、批量大小等)需参考对应标签的官方文档。常见可配置项包括:
MODEL_NAME(指定模型名称)、BATCH_SIZE(推理批量大小)、PRECISION(精度模式,如 FP32/INT8)。-v 挂载至容器内指定路径(通常为 /opt/modelzoo/data 或 /opt/modelzoo/models,具体依赖镜像设计)。重要提示:访问、下载或使用本软件及任何所需依赖软件(“软件包”)即表示您同意软件包的软件许可协议条款,其中可能包含软件包中第三方软件的通知、免责声明或许可条款。请查阅“third-party-programs.txt”或其他类似名称的文本文件以获取更多详情。
其他名称和品牌可能是其各自所有者的财产。
更多用于运行 TensorFlow、TensorFlow Serving 或其他 HPC、AI、ML 等工作负载的容器,可访问 Intel® oneContainer Portal。
您可以使用以下命令拉取该镜像。请将 <标签> 替换为具体的标签版本。如需查看所有可用标签版本,请访问 标签列表页面。
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录认证访问私有仓库
无需登录使用专属域名
Kubernetes 集群配置 Containerd
K3s 轻量级 Kubernetes 镜像加速
VS Code Dev Containers 配置
Podman 容器引擎配置
HPC 科学计算容器配置
ghcr、Quay、nvcr 等镜像仓库
Harbor Proxy Repository 对接专属域名
Portainer Registries 加速拉取
Nexus3 Docker Proxy 内网缓存
需要其他帮助?请查看我们的 常见问题Docker 镜像访问常见问题解答 或 提交工单
docker search 限制
站内搜不到镜像
离线 save/load
插件要用 plugin install
WSL 拉取慢
安全与 digest
新手拉取配置
镜像合规机制
manifest unknown
no matching manifest(架构)
invalid tar header(解压)
TLS 证书失败
DNS 超时
域名连通性排查
410 Gone 排查
402 与流量用尽
401 认证失败
429 限流
D-Bus 凭证提示
413 与超大单层
来自真实用户的反馈,见证轩辕镜像的优质服务