
tangrongs/xinferencexinference官方提供的容器在部分设备上存在兼容性限制,具体表现为在CUDA版本低于12.4的环境中无法正常运行。为解决此问题,用户需自行打包适配低版本CUDA环境的容器镜像。
bashgit clone [***] cd inference
编辑项目根目录下的Dockerfile,将基础镜像更换为适配目标CUDA版本的镜像,例如适配CUDA 11.8:
dockerfile# 替换原基础镜像为对应CUDA版本 FROM nvidia/cuda:11.8.0-cudnn8-devel-ubuntu22.04
根据目标CUDA版本,修改requirements.txt或相关配置文件,调整PyTorch等依赖库版本以适配低版本CUDA。
bashdocker build -t xinference-custom:latest .
bashdocker run -d --gpus all -p 9997:9997 xinference-custom:latest
docker logs命令检查服务运行状态,确保xinference正常启动manifest unknown 错误
TLS 证书验证失败
DNS 解析超时
410 错误:版本过低
402 错误:流量耗尽
身份认证失败错误
429 限流错误
凭证保存错误
来自真实用户的反馈,见证轩辕镜像的优质服务