openvino/model_server| 标签 | 支持的设备 | 基础操作系统 | 说明 |
|---|---|---|---|
| weekly | CPU,iGPU,dGPU,NPU | ubuntu24.04 | 主分支的开发版本 |
| latest | CPU | ubuntu24.04 | 最新发布版本 |
| latest-py | CPU,iGPU,dGPU,NPU | ubuntu24.04 | 支持GPU和Python |
| 2025.3-gpu | CPU,iGPU,dGPU,NPU | ubuntu24.04 | |
| 2025.3 | CPU | ubuntu24.04 | |
| 2025.2.1-gpu | CPU,iGPU,dGPU,NPU | ubuntu24.04 | |
| 2025.2.1 | CPU | ubuntu24.04 | |
| 2025.2-gpu | CPU,iGPU,dGPU,NPU | ubuntu24.04 | |
| 2025.2 | CPU | ubuntu24.04 | |
| 2025.1-gpu | CPU,iGPU,dGPU,NPU | ubuntu24.04 | |
| 2025.1 | CPU | ubuntu24.04 | |
| 2025.0-gpu | CPU,iGPU,dGPU,NPU | ubuntu24.04 | |
| 2025.0 | CPU | ubuntu24.04 | |
| 2024.5-gpu | CPU,iGPU,dGPU,NPU | ubuntu22.04 | |
| 2024.5 | CPU | ubuntu22.04 |
OpenVINO™ 模型服务器是一个可扩展的高性能解决方案,用于部署针对 Intel® 架构优化的机器学习模型。该服务器通过 gRPC、REST API 或 C API 提供推理服务,便于部署新算法和 AI 实验。
Intel® Distribution of OpenVINO™ 工具包可快速部署模拟人类视觉的应用程序和解决方案。基于卷积神经网络 (CNN),该工具包可在 Intel® 硬件上扩展计算机视觉 (CV) 工作负载,最大限度提高性能。
shdocker run -it --rm openvino/model_server:latest --help
无需配置文件,通过单命令启动容器并部署模型:
shdocker run --rm -d -v /models/:/opt/ml:ro -p 9001:9001 -p 8001:8001 openvino/model_server:latest --model_path /opt/ml/model1 --model_name my_model --port 9001 --rest_port 8001
注:上述命令将本地
/models/目录挂载为只读卷,映射 gRPC 端口 9001 和 REST 端口 8001,部署路径为/opt/ml/model1的模型并命名为my_model。
更多部署指南:经典模型快速入门、LLM 模型快速入门
***声明:通过访问、下载或使用本软件及依赖组件(“软件包”),您同意软件许可协议条款,包括第三方软件的相关声明与条款。详情见“third-party-programs.txt”或类似文件。
使用本容器即表示您同意 Intel 软件许可协议。镜像用户需自行确保符合所有组件的许可要求及潜在费用。
主要组件许可:
更多 Intel 容器(HPC/AI/ML 等)见 Intel® oneContainer Portal
manifest unknown 错误
TLS 证书验证失败
DNS 解析超时
410 错误:版本过低
402 错误:流量耗尽
身份认证失败错误
429 限流错误
凭证保存错误
来自真实用户的反馈,见证轩辕镜像的优质服务