
autodeployai/ai-servingAI-Serving Docker镜像是用于部署AI/ML模型的轻量级容器化解决方案,专注于支持开放标准格式(PMML和ONNX)的模型服务。该镜像集成AI-Serving二进制程序,默认使用ONNXRuntime CPU后端,可通过HTTP(REST API)和gRPC两种接口提供模型推理服务,适用于快速部署标准化的机器学习模型服务。
使用以下命令拉取并启动AI-Serving容器(默认端口需参考官方文档确认):
bashdocker run -p 8080:8080 autodeployai/ai-serving
如需加载本地模型文件,通过-v参数挂载模型目录(假设本地模型路径/local/models,容器内路径/models):
bashdocker run -p 8080:8080 -v /local/models:/models autodeployai/ai-serving --model-dir /models
详细配置参数(如端口修改、日志级别、模型加载策略等)可通过命令行参数或配置文件指定,完整参数列表请参考官方文档:AI-Serving GitHub
服务启动后,可通过以下方式访问:
http://localhost:8080/v1/models/{model-name}:predictlocalhost:8080,使用对应protobuf定义调用服务manifest unknown 错误
TLS 证书验证失败
DNS 解析超时
410 错误:版本过低
402 错误:流量耗尽
身份认证失败错误
429 限流错误
凭证保存错误
来自真实用户的反馈,见证轩辕镜像的优质服务