
pytorch/torchservePyTorch Serve是由PyTorch官方提供的模型服务框架,旨在简化PyTorch模型的部署流程。该Docker镜像封装了PyTorch Serve的完整运行环境,可快速部署PyTorch模型并提供RESTful API接口,支持模型加载、推理、管理及横向扩展,适用于生产环境中的模型服务化部署需求。
bashdocker run -p 8080:8080 -p 8081:8081 pytorch/torchserve:latest
torch-model-archiver工具将PyTorch模型打包为.mar格式(模型归档文件)bashdocker run -p 8080:8080 -p 8081:8081 \ -v /本地模型存储路径:/home/model-server/model-store \ pytorch/torchserve:latest \ torchserve --start --model-store /home/model-server/model-store --models 模型名称=模型文件.mar
| 环境变量 | 描述 | 默认值 |
|---|---|---|
TS_PORT | 推理API端口 | 8080 |
TS_MANAGEMENT_PORT | 管理API端口 | 8081 |
TS_MODEL_STORE | 模型存储目录 | /home/model-server/model-store |
TS_LOG_LEVEL | 日志级别(支持DEBUG/INFO/WARN/ERROR) | INFO |
TS_MAX_WORKERS | 工作进程数 | CPU核心数 |
yamlversion: '3' services: torchserve: image: pytorch/torchserve:latest ports: - "8080:8080" # 推理API - "8081:8081" # 管理API volumes: - ./local-model-store:/home/model-server/model-store # 本地模型目录挂载 environment: - TS_LOG_LEVEL=INFO - TS_MAX_WORKERS=4 command: torchserve --start --model-store /home/model-server/model-store --models my_model=my_model.mar
访问GitHub仓库获取完整文档和示例:pytorch/serve
manifest unknown 错误
TLS 证书验证失败
DNS 解析超时
410 错误:版本过低
402 错误:流量耗尽
身份认证失败错误
429 限流错误
凭证保存错误
来自真实用户的反馈,见证轩辕镜像的优质服务