
kserve/modelmesh-controllerModelMesh Serving是KServe项目的一部分,是一个通用的、高性能的模型服务平台,专为大规模机器学习模型的部署和管理而设计。该平台提供了动态模型加载、自动扩展和资源优化等核心功能,能够有效降低模型部署的复杂性并提高资源利用率。
ModelMesh Serving适用于以下场景:
bashhelm repo add kserve [***] helm repo update
bashhelm install modelmesh-serving kserve/modelmesh-serving --namespace modelmesh-serving --create-namespace
bashkubectl get pods -n modelmesh-serving
创建模型配置文件model.yaml:
yamlapiVersion: serving.kserve.io/v1beta1 kind: InferenceService metadata: name: example-model namespace: modelmesh-serving spec: predictor: model: modelFormat: name: tensorflow storageUri: "gs://kfserving-examples/models/tensorflow/flowers"
应用配置:
bashkubectl apply -f model.yaml
| 环境变量 | 描述 | 默认值 |
|---|---|---|
MODEL_MESH_LOG_LEVEL | 日志级别 | INFO |
MODEL_MESH_PORT | 服务端口 | 8080 |
MODEL_MESH_GRPC_PORT | gRPC服务端口 | 8085 |
MODEL_CACHE_SIZE | 模型缓存大小 | 10 |
MAX_MODEL_SIZE | 最大模型大小 | 10Gi |
KUBE_NAMESPACE | Kubernetes命名空间 | default |
访问Prometheus指标:
http://<service-name>:8080/metrics
获取日志:
bashkubectl logs -n modelmesh-serving <pod-name>
bashdocker run -d \ --name modelmesh-serving \ -p 8080:8080 \ -e MODEL_MESH_LOG_LEVEL=INFO \ kserve/modelmesh-serving:latest
yamlversion: '3' services: modelmesh-serving: image: kserve/modelmesh-serving:latest container_name: modelmesh-serving ports: - "8080:8080" - "8085:8085" environment: - MODEL_MESH_LOG_LEVEL=INFO - MODEL_CACHE_SIZE=20 restart: unless-stopped


manifest unknown 错误
TLS 证书验证失败
DNS 解析超时
410 错误:版本过低
402 错误:流量耗尽
身份认证失败错误
429 限流错误
凭证保存错误
来自真实用户的反馈,见证轩辕镜像的优质服务