本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com
Source Controller 是 Flux 的组件。Flux 是一个用于保持 Kubernetes 集群与配置源同步的工具。
Flux 概述
商标说明:本软件列表由 Bitnami 打包。产品中提及的 respective 商标归各自公司所有,使用这些商标并不意味着任何关联或认可。
helm install my-release oci://registry-1.docker.io/bitnamicharts/flux
希望在生产环境中使用 Flux?试试 VMware Tanzu Application Catalog,这是 Bitnami 目录的商业版。
自 2025 年 8 月 28 日起,Bitnami 将改进其公共目录,在新的 Bitnami 安全镜像计划 下提供精选的强化、安全聚焦镜像集。作为此次过渡的一部分:
这些变更旨在通过推广软件供应链完整性和最新部署的最佳实践,提高所有 Bitnami 用户的安全态势。有关更多详细信息,请访问 Bitnami 安全镜像公告。
此 Chart 使用 Helm 包管理器在 Kubernetes 集群上引导 Flux 部署。
要使用发布名称 my-release 安装 Chart:
helm install my-release oci://REGISTRY_NAME/REPOSITORY_NAME/flux
注意:您需要将占位符
REGISTRY_NAME和REPOSITORY_NAME替换为 Helm Chart 仓库和存储库的引用。例如,对于 Bitnami,需要使用REGISTRY_NAME=registry-1.docker.io和REPOSITORY_NAME=bitnamicharts。
该命令以默认配置在 Kubernetes 集群上部署 Flux。参数 部分列出了可在安装过程中配置的参数。
提示:使用
helm list列出所有发布
Bitnami Charts 允许为 Chart 部署中的所有容器设置资源请求和限制。这些设置位于 resources 值中(参见参数表)。设置请求对于生产工作负载至关重要,应根据您的具体用例进行调整。
为简化此过程,Chart 包含 resourcesPreset 值,可根据不同的预设自动设置 resources 部分。在 bitnami/common chart 中查看这些预设。但是,在生产工作负载中不建议使用 resourcesPreset,因为它可能无法完全适应您的特定需求。有关容器资源管理的更多信息,请参阅 Kubernetes 官方文档。
强烈建议在生产环境中使用不可变标签。这样可以确保如果同一标签更新为不同镜像,您的部署不会自动更改。
如果主容器有新版本、重大更改或严重漏洞,Bitnami 将发布新的 Chart 来更新其容器。
要在 Kubernetes 上备份和恢复 Helm Chart 部署,您需要备份源部署的持久卷,并使用 Velero(Kubernetes 备份/恢复工具)将它们附加到新部署。在 本指南 中查找使用 Velero 的说明。
通过将 *.metrics.enabled(在 helmController、imageAutomationController、imageReflectorController、kustomizeController、notificationController 和 sourceController 部分下)设置为 true,此 Chart 可以与 Prometheus 集成。这将在容器中公开 Flux 原生 Prometheus 端口。此外,它将部署多个 metrics 服务,可在 *.metrics.service 部分(在 helmController、imageAutomationController、imageReflectorController、kustomizeController、notificationController 和 sourceController 部分下)进行配置。这些 metrics 服务将具有必要的注解,以便被 Prometheus 自动抓取。
要使集成工作,需要安装 Prometheus 或 Prometheus Operator。安装 Bitnami Prometheus Helm Chart 或 Bitnami Kube Prometheus Helm Chart,以便在集群中轻松拥有可用的 Prometheus。
该 Chart 可以部署 ServiceMonitor 对象,以与 Prometheus Operator 安装集成。为此,将值 *.metrics.serviceMonitor.enabled=true(在 helmController、imageAutomationController、imageReflectorController、kustomizeController、notificationController 和 sourceController 部分下)设置为 true。确保集群中安装了 Prometheus Operator CustomResourceDefinitions,否则将失败并显示以下错误:
no matches for kind "ServiceMonitor" in version "monitoring.coreos.com/v1"
安装 Bitnami Kube Prometheus Helm Chart 以获取必要的 CRD 和 Prometheus Operator。
| 名称 | 描述 | 值 |
|---|---|---|
global.imageRegistry | 全局 Docker 镜像仓库 | "" |
global.imagePullSecrets | 全局 Docker 仓库密钥名称数组 | [] |
global.defaultStorageClass | 持久卷的全局默认 StorageClass | "" |
global.storageClass | 已弃用:使用 global.defaultStorageClass 代替 | "" |
global.security.allowInsecureImages | 允许跳过镜像验证 | false |
global.compatibility.openshift.adaptSecurityContext | 调整部署的 securityContext 部分,使其与 Openshift restricted-v2 SCC 兼容:移除 runAsUser、runAsGroup 和 fsGroup,让平台使用其允许的默认 ID。可能的值:auto(如果检测到运行的集群是 Openshift 则应用)、force(始终执行调整)、disabled(不执行调整) | auto |
| 名称 | 描述 | 值 |
|---|---|---|
kubeVersion | 覆盖 Kubernetes 版本 | "" |
nameOverride | 部分覆盖 common.names.name 的字符串 | "" |
fullnameOverride | 完全覆盖 common.names.fullname 的字符串 | "" |
namespaceOverride | 完全覆盖 common.names.namespace 的字符串 | "" |
commonLabels | 添加到所有部署对象的标签 | {} |
commonAnnotations | 添加到所有部署对象的注解 | {} |
clusterDomain | Kubernetes 集群域名 | cluster.local |
extraDeploy | 随发布一起部署的额外对象数组 | [] |
diagnosticMode.enabled | 启用诊断模式(所有探针将被禁用,命令将被覆盖) | false |
diagnosticMode.command | 覆盖部署中所有容器的命令 | ["sleep"] |
diagnosticMode.args | 覆盖部署中所有容器的参数 | ["infinity"] |
| 名称 | 描述 | 值 |
|---|---|---|
kustomizeController.enabled | 启用 Kustomize Controller | true |
kustomizeController.installCRDs | 安装 Kustomize Controller CRDs 的标志 | true |
kustomizeController.watchAllNamespaces | 监视所有命名空间中的自定义资源 | true |
kustomizeController.image.registry | Kustomize Controller 镜像仓库 | REGISTRY_NAME |
kustomizeController.image.repository | Kustomize Controller 镜像存储库 | REPOSITORY_NAME/fluxcd-kustomize-controller |
kustomizeController.image.digest | Kustomize Controller 镜像摘要,格式为 sha256:aa.... 请注意,如果设置此参数,将覆盖标签镜像标签(建议使用不可变标签) | "" |
kustomizeController.image.pullPolicy | Kustomize Controller 镜像拉取策略 | IfNotPresent |
kustomizeController.image.pullSecrets | Kustomize Controller 镜像拉取密钥 | [] |
kustomizeController.image.debug | 启用 Kustomize Controller 镜像调试模式 | false |
kustomizeController.replicaCount | 要部署的 Kustomize Controller 副本数 | 1 |
kustomizeController.containerPorts.metrics | Kustomize Controller 指标容器端口 | 8080 |
kustomizeController.containerPorts.health | Kustomize Controller 健康检查容器端口 | 9440 |
kustomizeController.networkPolicy.enabled | 指定是否创建 NetworkPolicy | true |
kustomizeController.networkPolicy.allowExternal | 不需要服务器标签即可进行连接 | true |
kustomizeController.networkPolicy.allowExternalEgress | 允许 Pod 访问任何端口范围和所有目标 | true |
kustomizeController.networkPolicy.kubeAPIServerPorts | kube-apiserver 的可能端点列表(限制到您的集群设置以提高安全性) | [] |
kustomizeController.networkPolicy.extraIngress | 向 NetworkPolicy 添加额外的入站规则 | [] |
kustomizeController.networkPolicy.extraEgress | 向 NetworkPolicy 添加额外的出站规则 | [] |
kustomizeController.networkPolicy.ingressNSMatchLabels | 用于匹配允许来自其他命名空间流量的标签 | {} |
kustomizeController.networkPolicy.ingressNSPodMatchLabels | 用于匹配允许来自其他命名空间 Pod 流量的标签 | {} |
kustomizeController.livenessProbe.enabled | 在 Kustomize Controller 容器上启用 livenessProbe | true |
kustomizeController.livenessProbe.initialDelaySeconds | livenessProbe 的初始延迟秒数 | 5 |
kustomizeController.livenessProbe.periodSeconds | livenessProbe 的周期秒数 | 10 |
kustomizeController.livenessProbe.timeoutSeconds | livenessProbe 的超时秒数 | 5 |
kustomizeController.livenessProbe.failureThreshold | livenessProbe 的失败阈值 | 5 |
kustomizeController.livenessProbe.successThreshold | livenessProbe 的成功阈值 | 1 |
kustomizeController.readinessProbe.enabled | 在 Kustomize Controller 容器上启用 readinessProbe | true |
kustomizeController.readinessProbe.initialDelaySeconds | readinessProbe 的初始延迟秒数 | 5 |
kustomizeController.readinessProbe.periodSeconds | readinessProbe 的周期秒数 | 10 |
kustomizeController.readinessProbe.timeoutSeconds | readinessProbe 的超时秒数 | 5 |
kustomizeController.readinessProbe.failureThreshold | readinessProbe 的失败阈值 | 5 |
kustomizeController.readinessProbe.successThreshold | readinessProbe 的成功阈值 | 1 |
注意:本 README 因长度限制已被截断。完整 README 可在 GitHub 上查看。


免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。
免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。
当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。
通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。
先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。
使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤
在 Linux 系统上配置轩辕镜像源,支持主流发行版
在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统
在 Docker Compose 中使用轩辕镜像加速,支持容器编排
在 k8s 中配置 containerd 使用轩辕镜像加速
在宝塔面板中配置轩辕镜像加速,提升服务器管理效率
在 Synology 群晖NAS系统中配置轩辕镜像加速
在飞牛fnOS系统中配置轩辕镜像加速
在极空间NAS中配置轩辕镜像加速
在爱快ikuai系统中配置轩辕镜像加速
在绿联NAS系统中配置轩辕镜像加速
在威联通NAS系统中配置轩辕镜像加速
在 Podman 中配置轩辕镜像加速,支持多系统
配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤
无需登录即可使用轩辕镜像加速服务,更加便捷高效
需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429