
eosphorosai/dbgpt-openaiDB-GPT Proxy (CPU) 镜像是一个轻量级Docker镜像,专为DB-GPT项目设计,仅包含代理模型组件,且完全基于CPU运行。该镜像专注于提供模型请求的代理、路由与管理功能,作为DB-GPT生态中的请求中转层,简化模型服务的接入与流量控制,适用于无GPU资源或资源受限的环境。
假设镜像托管于Docker Hub(实际请替换为官方仓库地址):
bashdocker pull dbgpt/proxy-cpu:latest
通过docker run命令启动容器,需指定端口映射和后端模型服务地址:
bashdocker run -d \ --name dbgpt-proxy \ -p 8000:8000 \ # 宿主机端口:容器内代理端口 -e PROXY_PORT=8000 \ # 容器内代理服务端口(默认8000) -e BACKEND_MODEL_URL="[***]" \ # 后端模型服务地址(必填) -e LOG_LEVEL="INFO" \ # 日志级别(默认INFO,可选:DEBUG/WARN/ERROR) -e REQUEST_TIMEOUT=30 \ # 请求超时时间(秒,默认30) dbgpt/proxy-cpu:latest
创建docker-compose.yml文件,定义代理服务及依赖(如后端模型服务,此处假设后端模型服务已独立部署):
yamlversion: '3.8' services: dbgpt-proxy: image: dbgpt/proxy-cpu:latest container_name: dbgpt-proxy ports: - "8000:8000" # 代理服务端口映射 environment: - PROXY_PORT=8000 - BACKEND_MODEL_URL="[***]" # 后端模型服务地址(需替换为实际地址) - LOG_LEVEL="INFO" - REQUEST_TIMEOUT=30 restart: unless-stopped networks: - dbgpt-network # 与后端模型服务共享网络(确保通信) networks: dbgpt-network: driver: bridge
启动命令:docker-compose up -d
| 环境变量名 | 描述 | 默认值 | 是否必填 |
|---|---|---|---|
PROXY_PORT | 代理服务监听端口(容器内) | 8000 | 否 |
BACKEND_MODEL_URL | 后端模型服务的HTTP地址(含端口) | 无 | 是 |
LOG_LEVEL | 日志输出级别(DEBUG/INFO/WARN/ERROR) | INFO | 否 |
REQUEST_TIMEOUT | 后端请求超时时间(秒) | 30 | 否 |
MAX_CONCURRENT | 最大并发请求数 | 100 | 否 |
ALLOWED_IPS | 允许访问的客户端IP(逗号分隔,如"192.168.1.0/24") | 所有IP | 否 |
8000(代理服务端口,可通过PROXY_PORT调整)。-p 8000:8000)以对外提供服务。BACKEND_MODEL_URL指向可用的DB-GPT模型服务(或兼容API的模型服务),否则代理无法正常转发请求。





manifest unknown 错误
TLS 证书验证失败
DNS 解析超时
410 错误:版本过低
402 错误:流量耗尽
身份认证失败错误
429 限流错误
凭证保存错误
来自真实用户的反馈,见证轩辕镜像的优质服务