本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com

Qwen Docker镜像是阿里云***提供的Qwen系列大语言模型(Large Language Model, LLM)部署工具,封装了Qwen聊天模型及预训练模型的运行环境。该镜像旨在为开发者、研究人员及企业用户提供便捷、一致的Qwen模型部署方案,简化模型部署流程,降低环境配置复杂度。
通过Docker Hub或阿里云容器镜像服务拉取***镜像:
# 从Docker Hub拉取(示例,实际标签以***为准) docker pull qwenlm/qwen:latest # 从阿里云容器镜像服务拉取(推荐国内用户) docker pull registry.cn-hangzhou.aliyuncs.com/qwen/qwen:latest
适用于无GPU环境,仅用于功能验证(性能有限):
docker run -it --rm \ -p 8000:8000 \ -v /path/to/your/qwen/model:/app/model \ # 挂载本地模型文件 qwenlm/qwen:latest \ --model-path /app/model \ --server-port 8000
需确保宿主环境已配置NVIDIA Docker:
docker run -it --rm \ --gpus all \ # 启用所有GPU -p 8000:8000 \ -v /path/to/your/qwen/model:/app/model \ qwenlm/qwen:latest \ --model-path /app/model \ --server-port 8000 \ --device cuda
创建docker-compose.yml文件,简化多环境部署:
version: '3.8' services: qwen-service: image: qwenlm/qwen:latest restart: unless-stopped ports: - "8000:8000" volumes: - ./local_model:/app/model # 本地模型目录挂载 - ./logs:/app/logs # 日志持久化 environment: - MODEL_PATH=/app/model - SERVER_PORT=8000 - DEVICE=cuda # 或cpu - LOG_LEVEL=info deploy: resources: reservations: devices: - driver: nvidia count: all capabilities: [gpu] # GPU资源预留(仅GPU模式需配置)
启动服务:docker-compose up -d
| 参数名 | 说明 | 默认值 | 示例 |
|---|---|---|---|
| --model-path | 模型文件路径(容器内) | /app/model | --model-path /data/qwen-7b |
| --server-port | 服务监听端口 | 8000 | --server-port 9000 |
| --device | 运行设备(cpu/cuda) | cpu | --device cuda |
| --max-seq-len | 最大序列长度 | 2048 | --max-seq-len 4096 |
| --log-path | 日志输出路径 | /app/logs | --log-path /var/log/qwen |
通过-e或environment配置,优先级高于命令行参数:
| 环境变量名 | 说明 | 默认值 | 示例值 |
|---|---|---|---|
| MODEL_PATH | 模型文件路径 | /app/model | /data/qwen-14b |
| SERVER_PORT | 服务端口 | 8000 | 8080 |
| DEVICE | 运行设备 | cpu | cuda |
| LOG_LEVEL | 日志级别(debug/info/warn/error) | info | debug |
| MAX_BATCH_SIZE | 最大批量请求数 | 4 | 8 |
qwen:7b-v1.0对应Qwen-7B v1.0模型),具体参考***版本说明。免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。
免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。
当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。
通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。
先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。
使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤
在 Linux 系统上配置轩辕镜像源,支持主流发行版
在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统
在 Docker Compose 中使用轩辕镜像加速,支持容器编排
在 k8s 中配置 containerd 使用轩辕镜像加速
在宝塔面板中配置轩辕镜像加速,提升服务器管理效率
在 Synology 群晖NAS系统中配置轩辕镜像加速
在飞牛fnOS系统中配置轩辕镜像加速
在极空间NAS中配置轩辕镜像加速
在爱快ikuai系统中配置轩辕镜像加速
在绿联NAS系统中配置轩辕镜像加速
在威联通NAS系统中配置轩辕镜像加速
在 Podman 中配置轩辕镜像加速,支持多系统
配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤
无需登录即可使用轩辕镜像加速服务,更加便捷高效
需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429