






































































Crawl4AI 是一款开源的LLM友好型网络爬虫和抓取工具,专为LLMs(大型语言模型)、AI代理和数据管道设计。
LocalAI 是一款免费开源的OpenAI替代方案,作为兼容OpenAI API规范的REST API服务,它允许用户在本地或企业内部环境中运行大型语言模型(LLMs)、生成图像和音频等AI功能。该项目无需GPU支持,可在消费级硬件上运行,支持多种模型家族,为开发者和企业提供了本地化AI推理的灵活解决方案。
在 AI 个人助理领域,Copaw 绝对是近期的黑马——它支持钉钉/飞书/QQ 等多端接入、本地/云端灵活部署、Skills 自由扩展,还能无缝对接 OpenAI/Azure OpenAI/本地大模型。无论是个人开发者快速验证创意,还是企业级落地生产应用,Copaw 都能提供轻量化且高可扩展的解决方案。
CNI(Container Network Interface)是容器网络接口的标准化规范,用于在容器编排系统中配置容器网络。本文介绍的CNI镜像基于Project Calico项目,包含Calico网络插件和IPAM(IP地址管理)插件,适用于任何采用CNI网络规范的容器编排器。该插件允许用户利用Calico的网络功能,实现容器间的网络连接、策略控制和IP地址管理。
OpenClaw 中国 IM 插件整合版 Docker 镜像,预装并配置了飞书、钉钉、QQ机器人、企业微信等主流中国 IM 平台插件,让您可以快速部署一个支持多个中国 IM 平台的 AI 机器人网关。 同时集成了OpenCode AI代码助手、Playwright浏览器自动化工具及中文TTS语音合成功能,适用于需要构建多平台IM机器人的开发者与科研用户。 本指南将详细介绍其Docker部署流程,包括环境准备、镜像拉取、容器配置、功能测试及生产环境优化建议,帮助用户快速实现服务部署与应用。
QWEN3是Qwen LLM系列的最新一代大语言模型,专为顶级编码、数学、推理和语言任务设计。该模型支持密集型(Dense)和混合专家(Mixture-of-Experts, MoE)两种架构,提供从0.6B到235B-A22B等多种规模的模型变体,适用于从轻型应用到大规模研究的各种部署场景。
Docker 官方维护的 AI 模型镜像集合(Verified Publisher),涵盖 GLM-4.7-Flash、Qwen3、GPT-OSS、DeepSeek、Kimi 等主流大语言模型,以及嵌入模型、重排序模型等,适合 AI 应用开发与部署。
vLLM 是面向大语言模型(LLM)推理与服务的高性能引擎项目,强调高吞吐、低延迟与显存高效利用,支持将模型以 OpenAI 兼容 API 形式对外提供服务,并覆盖 GPU/TPU 等多种硬件场景,适合构建生产级模型服务。
Apache 软件基金会(ASF)官方维护的容器镜像仓库(Sponsored OSS)。涵盖 Superset、Spark、Airflow、Doris、Flink、Hadoop 等 400+ 开源项目,适用于大数据、数据可视化、工作流编排与实时分析等场景。
n8n GmbH 官方维护的工作流自动化平台镜像集合,提供免费开源的工作流自动化工具,支持 500+ 应用集成、AI 工作流构建、自托管部署等功能,适合技术团队构建复杂的自动化流程。
MCP(Model Context Protocol,模型上下文协议)是一种用于连接大语言模型与外部工具、数据源和服务的开放协议,使 AI Agent 可以通过标准化接口访问和调用各种系统能力。
NVIDIA 官方在 Docker Hub 发布的容器镜像集合,涵盖 CUDA 运行时与开发环境、Kubernetes GPU 设备插件、数据中心 GPU 监控(DCGM)等,适合在宿主机已安装 NVIDIA 驱动的环境下构建与运行 GPU 加速应用。