本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com
| 标签 | 支持的设备 | 基础操作系统 | 说明 |
|---|---|---|---|
| weekly | CPU,iGPU,dGPU,NPU | ubuntu24.04 | 主分支的开发版本 |
| latest | CPU | ubuntu24.04 | 最新发布版本 |
| latest-py | CPU,iGPU,dGPU,NPU | ubuntu24.04 | 支持GPU和Python |
| 2025.3-gpu | CPU,iGPU,dGPU,NPU | ubuntu24.04 | |
| 2025.3 | CPU | ubuntu24.04 | |
| 2025.2.1-gpu | CPU,iGPU,dGPU,NPU | ubuntu24.04 | |
| 2025.2.1 | CPU | ubuntu24.04 | |
| 2025.2-gpu | CPU,iGPU,dGPU,NPU | ubuntu24.04 | |
| 2025.2 | CPU | ubuntu24.04 | |
| 2025.1-gpu | CPU,iGPU,dGPU,NPU | ubuntu24.04 | |
| 2025.1 | CPU | ubuntu24.04 | |
| 2025.0-gpu | CPU,iGPU,dGPU,NPU | ubuntu24.04 | |
| 2025.0 | CPU | ubuntu24.04 | |
| 2024.5-gpu | CPU,iGPU,dGPU,NPU | ubuntu22.04 | |
| 2024.5 | CPU | ubuntu22.04 |
OpenVINO™ 模型服务器是一个可扩展的高性能解决方案,用于部署针对 Intel® 架构优化的机器学***模型。该服务器通过 gRPC、REST API 或 C API 提供推理服务,便于部署新算法和 AI 实验。
Intel® Distribution of OpenVINO™ 工具包可快速部署模拟人类视觉的应用程序和解决方案。基于卷积神经网络 (CNN),该工具包可在 Intel® 硬件上扩展计算机视觉 (CV) 工作负载,最大限度提高性能。
docker run -it --rm openvino/model_server:latest --help
无需配置文件,通过单命令启动容器并部署模型:
docker run --rm -d -v /models/:/opt/ml:ro -p 9001:9001 -p 8001:8001 openvino/model_server:latest --model_path /opt/ml/model1 --model_name my_model --port 9001 --rest_port 8001
注:上述命令将本地
/models/目录挂载为只读卷,映射 gRPC 端口 9001 和 REST 端口 8001,部署路径为/opt/ml/model1的模型并命名为my_model。
更多部署指南:经典模型快速入门、LLM 模型快速入门
法律声明:通过访问、下载或使用本软件及依赖组件(“软件包”),您同意软件许可协议条款,包括第三方软件的相关声明与条款。详情见“third-party-programs.txt”或类似文件。
使用本容器即表示您同意 Intel 软件许可协议。镜像用户需自行确保符合所有组件的许可要求及潜在费用。
主要组件许可:
更多 Intel 容器(HPC/AI/ML 等)见 Intel® oneContainer Portal
免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。
免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。
当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。
通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。
先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。
使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤
在 Linux 系统上配置轩辕镜像源,支持主流发行版
在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统
在 Docker Compose 中使用轩辕镜像加速,支持容器编排
在 k8s 中配置 containerd 使用轩辕镜像加速
在宝塔面板中配置轩辕镜像加速,提升服务器管理效率
在 Synology 群晖NAS系统中配置轩辕镜像加速
在飞牛fnOS系统中配置轩辕镜像加速
在极空间NAS中配置轩辕镜像加速
在爱快ikuai系统中配置轩辕镜像加速
在绿联NAS系统中配置轩辕镜像加速
在威联通NAS系统中配置轩辕镜像加速
在 Podman 中配置轩辕镜像加速,支持多系统
配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤
无需登录即可使用轩辕镜像加速服务,更加便捷高效
需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429