本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com
Kubernetes Event Exporter 能够轻松将 Kubernetes 事件导出到其他工具,从而实现更好的事件可观测性、自定义告警和聚合功能。
Kubernetes Event Exporter 概述
商标说明:本软件列表由 Bitnami 打包。产品中提及的各个商标分别归其各自公司所有,使用这些商标并不意味着任何关联或背书。
helm install my-release oci://registry-1.docker.io/bitnamicharts/kubernetes-event-exporter
如需在生产环境中使用 Kubernetes Event Exporter,建议尝试 VMware Tanzu Application Catalog,这是 Bitnami 目录的商业版本。
自2025年8月28日起,Bitnami 将改进其公共目录,在新的 Bitnami Secure Images 计划 下提供精选的强化、安全聚焦的镜像集。作为此过渡的一部分:
这些变更旨在通过促进软件供应链完整性和最新部署的最佳实践,提高所有 Bitnami 用户的安全状况。有关更多详细信息,请访问 Bitnami Secure Images 公告。
要安装名为 my-release 的图表:
helm install my-release oci://REGISTRY_NAME/REPOSITORY_NAME/kubernetes-event-exporter
注意:您需要将占位符
REGISTRY_NAME和REPOSITORY_NAME替换为您的 Helm 图表 registry 和仓库的引用。例如,对于 Bitnami,您需要使用REGISTRY_NAME=registry-1.docker.io和REPOSITORY_NAME=bitnamicharts。
这些命令使用默认配置在 Kubernetes 集群上部署 Kubernetes Event Exporter。可在 参数 部分查看可在安装过程中配置的参数列表。
提示:使用
helm list或helm ls --all-namespaces列出所有发布版本
Bitnami 图表允许为图表部署中的所有容器设置资源请求和限制。这些设置位于 resources 值下(参见参数表)。设置请求对于生产工作负载至关重要,应根据您的具体用例进行调整。
为简化此过程,图表包含 resourcesPreset 值,可根据不同预设自动设置 resources 部分。可在 bitnami/common 图表 中查看这些预设。但是,在生产工作负载中不建议使用 resourcesPreset,因为它可能无法完全适应您的特定需求。有关容器资源管理的更多信息,请参阅 官方 Kubernetes 文档。
通过将 metrics.enabled 设置为 true,可以将此图表与 Prometheus 集成。这将在所有 Pod 中启用 kubernetes-event-exporter 原生 Prometheus 端点和 metrics 服务,可在 metrics.service 部分下进行配置。此 metrics 服务将具有必要的注释,以便被 Prometheus 自动抓取。
要使集成正常工作,必须安装 Prometheus 或 Prometheus Operator。安装 Bitnami Prometheus helm 图表 或 Bitnami Kube Prometheus helm 图表,可以轻松在集群中部署可用的 Prometheus。
该图表可以部署 ServiceMonitor 对象,以便与 Prometheus Operator 安装集成。要实现此目的,请将值 metrics.serviceMonitor.enabled=true 设置为 true。确保在集群中安装了 Prometheus Operator CustomResourceDefinitions,否则将失败并显示以下错误:
no matches for kind "ServiceMonitor" in version "monitoring.coreos.com/v1"
安装 Bitnami Kube Prometheus helm 图表 以获取必要的 CRD 和 Prometheus Operator。
在生产环境中强烈建议使用不可变标签。这可确保如果相同标签使用不同镜像更新,您的部署不会自动更改。
如果主容器有新版本、重大更改或严重漏洞,Bitnami 将发布新图表更新其容器。
要修改此图表中使用的应用程序版本,请使用 image.tag 参数指定不同版本的镜像和/或使用 image.repository 参数指定不同的仓库。
此图表允许使用 affinity 参数设置自定义 Pod 亲和性。有关 Pod 亲和性的更多信息,请参阅 Kubernetes 文档。
作为替代方案,可以使用 bitnami/common 图表中提供的 Pod 亲和性、Pod 反亲和性和节点亲和性的预设配置之一。为此,请设置 podAffinityPreset、podAntiAffinityPreset 或 nodeAffinityPreset 参数。
要在 Kubernetes 上备份和恢复 Helm 图表部署,您需要从源部署备份持久卷,并使用 Velero(Kubernetes 备份/恢复工具)将它们附加到新部署。在 本指南 中找到使用 Velero 的说明。
基本安装:
helm install my-k8s-event-exporter oci://registry-1.docker.io/bitnamicharts/kubernetes-event-exporter
指定命名空间安装:
helm install my-k8s-event-exporter oci://registry-1.docker.io/bitnamicharts/kubernetes-event-exporter \ --namespace event-exporter --create-namespace
自定义配置安装:
helm install my-k8s-event-exporter oci://registry-1.docker.io/bitnamicharts/kubernetes-event-exporter \ --set config.logLevel=info \ --set config.clusterName=my-k8s-cluster \ --set replicaCount=2
使用自定义 values 文件安装:
helm install my-k8s-event-exporter oci://registry-1.docker.io/bitnamicharts/kubernetes-event-exporter \ -f custom-values.yaml
以下是一个基本的 values.yaml 示例,配置将事件导出到 Elasticsearch:
config: logLevel: info logFormat: json clusterName: my-k8s-cluster receivers: - name: "elasticsearch" elasticsearch: hosts: - "[***]" index: "k8s-events" username: "elastic" password: "changeme" route: routes: - match: - receiver: "elasticsearch"
| 名称 | 描述 | 值 |
|---|---|---|
global.imageRegistry | 全局 Docker 镜像仓库 | "" |
global.imagePullSecrets | 全局 Docker 仓库密钥名称数组 | [] |
global.security.allowInsecureImages | 允许跳过镜像验证 | false |
global.compatibility.openshift.adaptSecurityContext | 调整部署的 securityContext 部分,使其与 Openshift restricted-v2 SCC 兼容:删除 runAsUser、runAsGroup 和 fsGroup,让平台使用其允许的默认 ID。可能的值:auto(如果检测到运行的集群是 Openshift,则应用),force(始终执行调整),disabled(不执行调整) | auto |
| 名称 | 描述 | 值 |
|---|---|---|
kubeVersion | 覆盖 Kubernetes 版本 | "" |
apiVersions | 覆盖 .Capabilities 报告的 Kubernetes API 版本 | [] |
nameOverride | 部分覆盖 kubernetes-event-exporter.fullname 包含的字符串(将保留发布名称) | "" |
fullnameOverride | 完全覆盖 kubernetes-event-exporter.fullname 模板 | "" |
commonAnnotations | 添加到所有部署对象的注释 | {} |
commonLabels | 添加到所有部署对象的标签 | {} |
diagnosticMode.enabled | 启用诊断模式(所有探针将被禁用,命令将被覆盖) | false |
diagnosticMode.command | 覆盖部署中所有容器的命令 | ["sleep"] |
diagnosticMode.args | 覆盖部署中所有容器的参数 | ["infinity"] |
extraDeploy | 要与发布一起部署的额外对象数组(作为模板评估) | [] |
| 名称 | 描述 | 值 |
|---|---|---|
replicaCount | 所需的 pod 副本数 | 1 |
revisionHistoryLimit | 保留的旧 ReplicaSets 的期望数量 | 10 |
containerPorts.http | HTTP 容器端口 | 2112 |
extraContainerPorts | 可选地指定容器的额外端口映射列表 | [] |
image.registry | 容器镜像仓库 | REGISTRY_NAME |
image.repository | 容器镜像名称 | REPOSITORY_NAME/kubernetes-event-exporter |
image.digest | 容器镜像摘要,格式为 sha256:aa.... 请注意,如果设置此参数,将覆盖标签 | "" |
image.pullPolicy | 容器镜像拉取策略 | IfNotPresent |
image.pullSecrets | 指定 docker-registry 密钥名称数组 | [] |
automountServiceAccountToken | 在 pod 中挂载 Service Account token | true |
hostAliases | 添加部署主机别名 | [] |
config.logLevel | 日志详细程度(选项:fatal、error、warn、info 或 debug) | debug |
config.logFormat | 日志格式。允许的值:pretty 或 json | pretty |
config.clusterName | 事件来源的 kubernetes 集群名称 | "" |
config.receivers | 包含事件接收器的数组 | [] |
config.route.routes | 包含事件路由配置的数组 | [] |
rbac.create | 创建用于 API 访问的 RBAC 角色 | true |
rbac.rules | 集群角色的规则列表 | [] |
serviceAccount.create | 指定是否应创建 ServiceAccount | true |
serviceAccount.name | 要使用的服务账户名称。如果未设置且 create 为 true,则使用 fullname 模板生成名称。 | "" |
serviceAccount.automountServiceAccountToken | 为服务器服务账户自动挂载服务账户令牌 | false |
serviceAccount.annotations | 服务账户的注释。作为模板评估。仅在 create 为 true 时使用。 | {} |
podAnnotations | Pod 注释 | {} |
podLabels | Pod 标签 | {} |
podSecurityContext.enabled | 启用安全上下文 | true |
podSecurityContext.fsGroupChangePolicy | 设置文件系统组更改策略 | Always |
podSecurityContext.sysctls | 使用 sysctl 接口设置内核设置 | [] |
podSecurityContext.supplementalGroups | 设置文件系统额外组 | [] |
podSecurityContext.fsGroup | 容器的组 ID | 1001 |
pdb.create | 创建 pdb | true |
pdb.minAvailable | 应保持调度的最小 pod 数量/百分比 | "" |
pdb.maxUnavailable | 可能不可用的最大 pod 数量/百分比 | "" |
containerSecurityContext.enabled | 启用容器的安全上下文 | true |
containerSecurityContext.seLinuxOptions | 在容器中设置 SELinux 选项 | {} |
containerSecurityContext.runAsUser | 设置容器的安全上下文 runAsUser | 1001 |
containerSecurityContext.runAsGroup | 设置容器的安全上下文 runAsGroup | 1001 |
containerSecurityContext.runAsNonRoot | 设置容器的安全上下文 runAsNonRoot | true |
containerSecurityContext.privileged | 设置容器的安全上下文 privileged | false |
containerSecurityContext.readOnlyRootFilesystem | 设置容器的根文件系统为只读 | true |
containerSecurityContext.allowPrivilegeEscalation | 允许权限升级 | false |
containerSecurityContext.capabilities.drop | 要删除的容器功能列表 | ["ALL"] |
livenessProbe.enabled | 启用存活探针 | true |
livenessProbe.initialDelaySeconds | 存活探针初始延迟秒数 | 5 |
livenessProbe.periodSeconds | 存活探针周期秒数 | 10 |
livenessProbe.timeoutSeconds | 存活探针超时秒数 | 5 |
livenessProbe.failureThreshold | 存活探针失败阈值 | 6 |
livenessProbe.successThreshold | 存活探针成功阈值 | 1 |
readinessProbe.enabled | 启用就绪探针 | true |
readinessProbe.initialDelaySeconds | 就绪探针初始延迟秒数 | 5 |
readinessProbe.periodSeconds | 就绪探针周期秒数 | 10 |
readinessProbe.timeoutSeconds | 就绪探针超时秒数 | 5 |
readinessProbe.failureThreshold | 就绪探针失败阈值 | 6 |
readinessProbe.successThreshold | 就绪探针成功阈值 | 1 |
startupProbe.enabled | 启用启动探针 | false |
startupProbe.initialDelaySeconds | 启动探针初始延迟秒数 | 5 |
startupProbe.periodSeconds | 启动探针周期秒数 | 10 |
startupProbe.timeoutSeconds | 启动探针超时秒数 | 5 |
startupProbe.failureThreshold | 启动探针失败阈值 | 60 |
startupProbe.successThreshold | 启动探针成功阈值 | 1 |
customLivenessProbe | 自定义存活探针,覆盖默认配置 | {} |
customReadinessProbe | 自定义就绪探针,覆盖默认配置 | {} |
customStartupProbe | 自定义启动探针,覆盖默认配置 | {} |
免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。
免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。
当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。
通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。
先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。
使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤
在 Linux 系统上配置轩辕镜像源,支持主流发行版
在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统
在 Docker Compose 中使用轩辕镜像加速,支持容器编排
在 k8s 中配置 containerd 使用轩辕镜像加速
在宝塔面板中配置轩辕镜像加速,提升服务器管理效率
在 Synology 群晖NAS系统中配置轩辕镜像加速
在飞牛fnOS系统中配置轩辕镜像加速
在极空间NAS中配置轩辕镜像加速
在爱快ikuai系统中配置轩辕镜像加速
在绿联NAS系统中配置轩辕镜像加速
在威联通NAS系统中配置轩辕镜像加速
在 Podman 中配置轩辕镜像加速,支持多系统
配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤
无需登录即可使用轩辕镜像加速服务,更加便捷高效
需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429