vLLM 是面向大语言模型(LLM)推理与服务的高性能引擎项目,强调高吞吐、低延迟与显存高效利用,支持将模型以 OpenAI 兼容 API 形式对外提供服务,并覆盖 GPU/TPU 等多种硬件场景,适合构建生产级模型服务。
LangGenius 官方维护的 Dify 平台镜像集合。Dify 是开源的 LLM 应用开发平台,支持可视化工作流、RAG 流水线、Agent 能力与模型管理。包含 API 后端、Web 前端、代码沙箱与插件守护进程等组件,适合自托管部署生产级 AI 应用。
Docker 官方维护的 AI 模型镜像集合(Verified Publisher),涵盖 GLM-4.7-Flash、Qwen3、GPT-OSS、DeepSeek、Kimi 等主流大语言模型,以及嵌入模型、重排序模型等,适合 AI 应用开发与部署。
n8n GmbH 官方维护的工作流自动化平台镜像集合,提供免费开源的工作流自动化工具,支持 500+ 应用集成、AI 工作流构建、自托管部署等功能,适合技术团队构建复杂的自动化流程。