llm-d 是 GitHub Container Registry 上的一个容器化大语言模型部署工具,主要面向需要快速落地大语言模型(LLM)的开发者和中小企业,核心目标是降低模型部署的技术门槛,让非专业人员也能轻松用上开源 LLM。
它最直观的优势是“开箱即用”。传统部署 LLM 时,开发者常被不同模型的依赖库版本、硬件适配、环境配置等问题困住——比如跑 Llama 要装特定版本的 CUDA,试 Mistral 又得处理 Python 库冲突,折腾半天还未必能启动。而 llm-d 把这些复杂工作打包进标准化容器,用户不用手动安装任何依赖,只需拉取镜像、输入启动命令,几分钟内就能让模型跑起来。目前它已支持主流开源模型,像 Llama 系列、Mistral、Qwen 等,后续还会随社区反馈持续增加新模型支持。
在功能设计上,llm-d 走“轻量实用”路线。它内置了基础的推理引擎,针对消费级显卡和普通服务器做了优化,就算用 16G 显存的显卡,也能流畅运行 7B 规模的量化模型。同时支持模块化扩展:如果需要对接企业内部知识库,可直接挂载本地文档目录;想调整模型输出格式,也能通过简单的配置文件自定义prompt模板,不用改底层代码。
对开发者来说,它是“快速验证工具”——比如测试新模型的对话效果,不用从零搭环境,拉取镜像启动后直接调用 API 就能测;对中小企业而言,它降低了部署成本,用现有服务器就能跑轻量模型,搭建内部问答系统或文档处理工具,不用额外采购高性能硬件。
这个项目是社区驱动的,代码和模型支持列表会定期更新,最近还加入了对多模态模型的初步支持。如果你不想被环境配置、依赖冲突这些琐事缠住,又需要一个灵活、省事儿的 LLM 部署方案,llm-d 值得试试。
请登录使用轩辕镜像享受快速拉取体验,支持国内加速,速度提升50倍
docker pull ghcr.io/llm-d/llm-d:v0.2.0来自真实用户的反馈,见证轩辕镜像的优质服务
免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。
免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。
当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。
通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。
先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。
使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录认证访问私有仓库
在 Linux 系统配置镜像加速服务
在 Docker Desktop 配置镜像加速
Docker Compose 项目配置加速
Kubernetes 集群配置 Containerd
在宝塔面板一键配置镜像加速
Synology 群晖 NAS 配置加速
飞牛 fnOS 系统配置镜像加速
极空间 NAS 系统配置加速服务
爱快 iKuai 路由系统配置加速
绿联 NAS 系统配置镜像加速
QNAP 威联通 NAS 配置加速
Podman 容器引擎配置加速
HPC 科学计算容器配置加速
ghcr、Quay、nvcr 等镜像仓库
无需登录使用专属域名加速
需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429