专属域名
文档搜索
轩辕助手
Run助手
邀请有礼
返回顶部
快速返回页面顶部
收起
收起工具栏
轩辕镜像 官方专业版
轩辕镜像 官方专业版轩辕镜像 官方专业版官方专业版
首页个人中心搜索镜像

交易
充值流量我的订单
工具
提交工单镜像收录一键安装
Npm 源Pip 源Homebrew 源
帮助
常见问题
其他
关于我们网站地图

官方QQ群: 1072982923

热门搜索:openclaw🔥nginx🔥redis🔥mysqlopenjdkcursorweb2apimemgraphzabbixetcdubuntucorednsjdk
Alpine 工具与轻量镜像 logo

Alpine 工具与轻量镜像

由 Alpine 组织维护的一系列轻量化工具与运行环境镜像,涵盖 curl、git、helm、kubectl、k8s 工具箱、数据库/CLI 等开发运维工具,以及基于 Alpine 的 Ollama CPU 运行环境等,适合构建小体积、启动快的容器工作流。 https://hub.docker.com/u/alpine

Alpine 组织在 Docker Hub 提供了大量基于 Alpine Linux 的工具与运行环境镜像,这些镜像通常具备体积小、依赖精简、安全面更小等特点,非常适合在 CI/CD 流水线、日常运维脚本、命令行工具容器化等场景中使用。 除了常见的 curl、git、helm、kubectl、psql、sqlite 等命令行工具外,Alpine 还提供了针对云厂商与 Kubernetes 的工具集合(如 alpine/k8s、alpine/doctl),帮助开发者在一套统一的 Alpine 基础上完成集群运维与云资源管理。同时,围绕大模型生态也逐步出现了基于 Alpine 的运行环境,例如 `alpine/ollama` 提供了 CPU-only 的 Ollama LLM 运行环境,适合在资源有限或无需 GPU 的场景中快速部署本地大语言模型服务。 在本命名空间中,我们聚焦站内已收录的 Alpine 官方与社区镜像,并结合它们在工具链、运维与本地 LLM 场景中的典型用法,为你提供构建“轻量但实用”的容器化工作流参考。

特色镜像推荐

Ollama CPU-only 运行环境(alpine/ollama)

alpine/ollama 是基于 Alpine Linux 构建的最小化 Ollama 容器镜像,主打 CPU-only 部署场景。镜像体积相对精简,适合在没有 GPU 或只需要轻量推理的环境中,快速拉起本地大语言模型服务。

CPU-only 本地 LLM 服务开发与测试环境资源受限场景下的模型体验与 Web UI / 应用集成的轻量后端

Alpine Curl 工具镜像(alpine/curl)

基于 Alpine Linux 打包的 curl 命令行工具镜像,常用于在 CI/CD 或调试场景中发起 HTTP 请求、测试 API、做健康检查等。

接口联调与测试健康检查脚本CI/CD 步骤中的 HTTP 请求

Alpine Git 工具镜像(alpine/git)

轻量级的 git 命令行环境,适合在流水线中执行拉取/推送仓库、做简单构建与打包前的代码操作。

CI 拉取代码自动化发布流程在容器中执行临时代码操作

Helm 客户端镜像(alpine/helm)

alpine/helm 提供基于 Alpine 的 Helm 命令行环境,通常通过自动触发构建跟随上游 Helm 发布版本更新,适合在 CI/CD 流水线或运维脚本中执行 Chart 安装、升级与回滚操作。

Kubernetes 应用发布Helm Chart 安装与升级CI/CD 中的集群部署步骤

Alpine 工具与轻量镜像集合

httpie logo
httpie
Alpine 工具与轻量镜像
当httpie有新版本发布时自动触发Docker构建的镜像
22 次收藏17599366 次下载
--更新
socat logo
socat
Alpine 工具与轻量镜像
基于Alpine的轻量级容器,用于运行socat网络工具,实现端口转发、数据流转发等网络通信功能。
115 次收藏71247442 次下载
--更新
git logo
git
Alpine 工具与轻量镜像
这是一个运行于Alpine Linux系统中的简易Git容器,Alpine Linux以其极致精简的特性为基础,使得该容器在保持Git核心功能的同时,具备轻量高效的运行表现,尤其适用于各类小型Linux发行版环境,能够满足资源受限场景下的版本控制需求,为嵌入式系统、边缘设备或轻量级开发环境提供便捷的Git服务支持。
252 次收藏436728340 次下载
--更新
flake8 logo
flake8
Alpine 工具与轻量镜像
通过CI定时任务自动触发fake8的Docker构建
2 次收藏2052703 次下载
--更新
bombardier logo
bombardier
Alpine 工具与轻量镜像
当bombardier有新版本发布时自动触发Docker构建的镜像
28 次收藏16977218 次下载
--更新
landscape logo
landscape
Alpine 工具与轻量镜像
当terraform-landscape有新版本发布时自动触发Docker镜像构建
1 次收藏23377 次下载
--更新
node logo
node
Alpine 工具与轻量镜像
该镜像无更新,建议直接使用官方Node.js镜像以获取最新功能、安全补丁和技术支持。
5 次收藏44723 次下载
--更新
bundle logo
bundle
Alpine 工具与轻量镜像
该Docker镜像仓库已于2023年6月30日被所有者归档,目前处于只读状态。
1 次收藏139021 次下载
--更新
bundle-terraform-awspec logo
bundle-terraform-awspec
Alpine 工具与轻量镜像
用于Terraform awspec测试的专用Docker镜像,集成Ruby、Terraform、awspec等工具,支持基础设施代码的测试和验证流程。
2 次收藏13084 次下载
--更新
helm logo
helm
Alpine 工具与轻量镜像
当Kubernetes Helm有新发布时自动触发Docker构建的镜像
70 次收藏63470120 次下载
--更新
make logo
make
Alpine 工具与轻量镜像
一个可直接运行make命令的简单容器
1 次收藏45780 次下载
--更新
semver logo
semver
Alpine 工具与轻量镜像
用于语义化版本控制的Docker工具
4 次收藏398445 次下载
--更新
assume-role logo
assume-role
Alpine 工具与轻量镜像
暂无描述
614 次下载
--更新
terragrunt logo
terragrunt
Alpine 工具与轻量镜像
当有新的Terraform版本发布时,自动触发Terragrunt的Docker构建
18 次收藏15605395 次下载
--更新
awslogs logo
awslogs
Alpine 工具与轻量镜像
一个集成awslogs和saw工具的Docker容器,用于便捷管理和实时监控AWS CloudWatch日志。
11132 次下载
--更新
第 1 页 / 共 5 页

推荐技术栈

命令行与开发工具

alpine/curlalpine/gitalpine/helmalpine/psqlalpine/sqlite

云与集群运维

alpine/kubectlalpine/k8salpine/doctlalpine/gcloud

存储与服务组件

alpine/minioalpine/mysql

本地 LLM 运行环境

alpine/ollama

典型使用场景

轻量级 CLI 工具容器化

将 curl、git、helm、psql 等常用命令行工具以 Alpine 容器形式运行,用于 CI/CD 步骤、一次性任务或调试环境,避免在宿主机安装过多依赖。

alpine/curlalpine/gitalpine/helmalpine/psqlalpine/sqlite

云与 Kubernetes 运维工具箱

通过 alpine/kubectl、alpine/k8s、alpine/doctl 等镜像构建统一的运维容器,在其中同时完成集群管理、云资源操作和脚本执行。

alpine/kubectlalpine/k8salpine/doctlalpine/gcloud

基于 Alpine 的本地 LLM 与 Ollama 部署

在没有 GPU 的服务器或开发机上使用 alpine/ollama 镜像部署 CPU-only 的 Ollama 服务,为 Web UI、RAG 服务或内部应用提供本地大模型推理能力。

alpine/ollamaOllama CLIWeb UI / RAG 应用

相关文章推荐

Docker OpenClaw 生产环境部署指南(单机架构版)

本文给出一套经过验证的 OpenClaw 单机生产部署方案,覆盖安全、稳定性与可维护性设计。 内容包括: Docker Compose 生产配置规范 CPU / 内存限制的正确写法 健康检查与自动恢复 TLS 与反向代理配置 防火墙与访问控制 升级与备份建议 适用于中小规模生产环境的稳定运行场景。

OpenClaw,AI,部署教程2026年2月24日

基于 Docker 部署 Alpine Linux:从入门到实践

Alpine Linux就是为“容器化”而生的系统——它砍掉了传统Linux中冗余的组件(如图形界面、无用服务),只保留核心运行环境,同时又不缺必要的软件支持,因此成为Docker生态中最受欢迎的基础镜像之一。

Docker,Alpine Linux2025年10月10日

常见问题 (FAQ)

Q1:alpine/ollama 和官方 ollama/ollama 有什么主要区别?

alpine/ollama 在 Docker Hub 描述中标注为 “Minimal CPU-only Ollama Docker Image”[`https://hub.docker.com/u/alpine`],强调基于 Alpine Linux 的最小化和 CPU-only 运行;官方 ollama/ollama 则是由 Ollama 团队维护的通用镜像,通常同时面向 CPU 与 GPU(配合对应驱动和容器工具包)。前者更关注体积与 CPU 部署场景,后者更适合作为“官方基线”,在多种硬件环境下使用。

Q2:使用 alpine/ollama 启动一个 CPU-only 的 Ollama 服务需要哪些基础步骤?

思路与官方镜像类似:1)在宿主机安装 Docker;2)使用 alpine/ollama 镜像启动容器并映射 11434 端口与模型目录,例如:docker run -d -p 11434:11434 -v /data/ollama:/root/.ollama --name ollama alpine/ollama;3)容器启动后,通过 HTTP 接口(如 POST http://localhost:11434/api/generate 或 /api/chat)或容器内的 ollama CLI 加载并运行模型。区别在于镜像内部基于 Alpine,依赖与系统工具更精简。

Q3:alpine/ollama 作为 CPU-only 镜像,在实际使用中有哪些适用与不适用的场景?

适用场景包括:本地开发调试、低并发内部服务、对时延要求不高但希望节省 GPU 成本的业务、在云主机或边缘节点上轻量跑推理;不适合的场景包括:高并发、大模型长上下文推理、大规模生产服务或者需要利用 GPU/专用加速卡提升吞吐量的任务。在这些场景下,更推荐使用官方 ollama/ollama 搭配 GPU 优化镜像或专门的推理引擎。

Q4:使用 alpine/ollama 时,如何为模型与配置做持久化存储?

和其他 Ollama 镜像一致,模型与配置通常存放在容器内的 /root/.ollama 目录。为避免容器删除后重新下载模型,应在 docker run 时挂载卷,例如:docker run -d -p 11434:11434 -v /data/ollama:/root/.ollama --name ollama alpine/ollama。这样模型下载、缓存与配置都会保存在宿主机 /data/ollama 目录中,后续升级或重建容器也能复用已有数据。

Q5:alpine/ollama 能否作为 OpenAI 兼容后端接入现有应用或 Web UI?

Ollama 本身在 /v1/chat/completions 等路径上提供与 OpenAI 类似的接口,新版本在官方文档与示例中已有说明,alpine/ollama 作为运行环境并不会改变这一行为。实际接入时,可以将应用或 Web UI 中的 OpenAI Base URL 改为 http://<主机>:11434,并将模型名称设置为在 Ollama 中实际存在的模型(如 llama3)。需要注意的是,由于是 CPU-only 环境,高并发或大模型场景的性能要结合实际硬件评估。

轩辕镜像
Alpine 工具与轻量镜像
博客公告Docker 镜像公告与技术博客
热门镜像查看热门 Docker 镜像推荐
一键安装一键安装 Docker 并配置镜像源
镜像拉取问题咨询请 提交工单,官方技术交流群:1072982923。轩辕镜像所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
镜像拉取问题咨询请提交工单,官方技术交流群:。轩辕镜像所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
商务合作:点击复制邮箱
©2024-2026 源码跳动
商务合作:点击复制邮箱Copyright © 2024-2026 杭州源码跳动科技有限公司. All rights reserved.