
baseten/vllm该镜像为基于vLLM框架的模型服务基础镜像,旨在简化大语言模型(LLM)的部署流程,提供高效、低延迟的推理服务能力。通过集成vLLM核心技术,可显著提升模型服务的吞吐量和资源利用率,适用于各类需要高性能LLM推理的场景。
基础运行命令:
bashdocker run -d \ --gpus all \ -p 8000:8000 \ -v /host/path/to/models:/models \ vllm-base-image \ --model /models/your-model-directory \ --port 8000 \ --max-num-batches 32
docker-compose配置示例:
yamlversion: '3' services: vllm-service: image: vllm-base-image deploy: resources: reservations: devices: - driver: nvidia count: all capabilities: [gpu] ports: - "8000:8000" volumes: - /host/path/to/models:/models command: > --model /models/your-model-directory --port 8000 --max-num-seqs 256 --tensor-parallel-size 1
启动容器时可通过命令行参数进行配置,关键参数说明:
| 参数 | 描述 | 默认值 |
|---|---|---|
--model | 模型路径(容器内路径) | 无(必填) |
--port | 服务监听端口 | 8000 |
--host | 服务绑定地址 | 0.0.0.0 |
--max-num-batches | 最大批处理数量 | 24 |
--max-num-seqs | 每批最大序列数 | 256 |
--tensor-parallel-size | 张量并行数量(多GPU时使用) | 1 |
--gpu-memory-utilization | GPU内存利用率目标(0-1.0) | 0.9 |
可通过环境变量设置部分运行时参数:
| 环境变量 | 描述 | 默认值 |
|---|---|---|
MODEL_PATH | 模型路径(替代--model参数) | 无 |
SERVICE_PORT | 服务端口(替代--port参数) | 8000 |
LOG_LEVEL | 日志级别(DEBUG/INFO/WARNING/ERROR) | INFO |
--gpu-memory-utilization参数,避免OOM错误tensor-parallel-size参数



manifest unknown 错误
TLS 证书验证失败
DNS 解析超时
410 错误:版本过低
402 错误:流量耗尽
身份认证失败错误
429 限流错误
凭证保存错误
来自真实用户的反馈,见证轩辕镜像的优质服务