本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com
Prometheus Operator为Kubernetes服务提供简单的监控定义,并支持Prometheus实例的部署和管理。
Prometheus Operator 概述
商标声明:本软件列表由Bitnami打包。产品中提及的 respective 商标归各自公司所有,使用这些商标并不意味着任何关联或背书。
helm install my-release oci://registry-1.docker.io/bitnamicharts/kube-prometheus
提示:您知道此应用也可作为Azure Marketplace上的Kubernetes应用使用吗?Kubernetes应用是在AKS上部署Bitnami的最简单方式。点击此处查看Azure Marketplace上的列表。
希望在生产环境中使用Prometheus Operator?试试VMware Tanzu Application Catalog,这是Bitnami目录的商业版。
自2025年8月28日起,Bitnami将改进其公共目录,在新的Bitnami Secure Images计划下提供精选的强化、安全聚焦镜像集。作为此次过渡的一部分:
这些变更旨在通过推广软件供应链完整性和最新部署的最佳实践,提高所有Bitnami用户的安全态势。有关更多详情,请访问Bitnami Secure Images公告。
此图表使用Helm包管理器在Kubernetes上引导Prometheus Operator部署。
在默认配置下,该图表会在Kubernetes集群上部署以下组件:
:warning: 重要
集群中应只运行一个Prometheus Operator组件实例。如果您希望部署此图表以管理集群中的多个Prometheus实例,则必须禁用Prometheus Operator组件的安装,使用operator.enabled=false图表安装参数。
要安装发布名称为my-release的图表:
helm install my-release oci://REGISTRY_NAME/REPOSITORY_NAME/kube-prometheus
注意:您需要将占位符
REGISTRY_NAME和REPOSITORY_NAME替换为Helm图表仓库和存储库的引用。例如,对于Bitnami,需使用REGISTRY_NAME=registry-1.docker.io和REPOSITORY_NAME=bitnamicharts。
该命令会以默认配置在Kubernetes集群上部署kube-prometheus。配置部分列出了安装过程中可配置的参数。
提示:使用
helm list列出所有发布
Bitnami图表允许为图表部署中的所有容器设置资源请求和限制。这些设置位于resources值中(参见参数表)。为生产工作负载设置请求至关重要,应根据您的具体用例进行调整。
为简化此过程,图表包含resourcesPreset值,可根据不同预设自动设置resources部分。查看bitnami/common图表中的这些预设。但是,在生产工作负载中不建议使用resourcesPreset,因为它可能无法完全适应您的特定需求。有关容器资源管理的更多信息,请参见官方Kubernetes文档。
强烈建议在生产环境中使用不可变标签。这样可确保如果同一标签使用不同镜像更新,您的部署不会自动更改。
如果主容器有新版本、重大变更或严重漏洞,Bitnami将发布新图表更新其容器。
以下值已被弃用。请参见下面的升级部分。
prometheus.additionalScrapeConfigsExternal.enabled prometheus.additionalScrapeConfigsExternal.name prometheus.additionalScrapeConfigsExternal.key
通过将prometheus.additionalScrapeConfigs.enabled设置为true并将prometheus.additionalScrapeConfigs.type设置为external,可以通过Secret注入外部管理的抓取配置。该Secret必须存在于与图表部署相同的命名空间中。使用参数prometheus.additionalScrapeConfigs.external.name设置Secret名称,并使用prometheus.additionalScrapeConfigs.external.key设置包含额外抓取配置的键。
prometheus.additionalScrapeConfigs.enabled=true prometheus.additionalScrapeConfigs.type=external prometheus.additionalScrapeConfigs.external.name=kube-prometheus-prometheus-scrape-config prometheus.additionalScrapeConfigs.external.key=additional-scrape-configs.yaml
还可以通过将prometheus.additionalScrapeConfigs.enabled设置为true并将prometheus.additionalScrapeConfigs.type设置为internal,定义由Helm图表管理的抓取配置。然后可以使用prometheus.additionalScrapeConfigs.internal.jobList定义Prometheus的额外抓取任务列表。
prometheus.additionalScrapeConfigs.enabled=true prometheus.additionalScrapeConfigs.type=internal prometheus.additionalScrapeConfigs.internal.jobList= - job_name: 'opentelemetry-collector' # metrics_path默认为'/metrics' # scheme默认为'http'。 static_configs: - targets: ['opentelemetry-collector:8889']
有关更多信息,请参见额外抓取配置文档。
通过将prometheus.additionalAlertRelabelConfigsExternal.enabled设置为true,可以通过Secret注入外部管理的Prometheus告警重标签配置。该Secret必须存在于与图表部署相同的命名空间中。
使用参数prometheus.additionalAlertRelabelConfigsExternal.name设置Secret名称,并使用prometheus.additionalAlertRelabelConfigsExternal.key设置包含额外告警重标签配置的键。例如,如果您创建了一个名为kube-prometheus-prometheus-alert-relabel-config的Secret,其中包含一个名为additional-alert-relabel-configs.yaml的文件,请使用以下参数:
prometheus.additionalAlertRelabelConfigsExternal.enabled=true prometheus.additionalAlertRelabelConfigsExternal.name=kube-prometheus-prometheus-alert-relabel-config prometheus.additionalAlertRelabelConfigsExternal.key=additional-alert-relabel-configs.yaml
要在Kubernetes上备份和恢复Helm图表部署,您需要从源部署备份持久卷,并使用Velero(Kubernetes备份/恢复工具)将其附加到新部署。有关使用Velero的说明,请参见本指南。
此图表允许使用XXX.affinity参数设置自定义Pod亲和性。有关Pod亲和性的更多信息,请参见Kubernetes文档。
作为替代方案,可以使用bitnami/common图表中提供的Pod亲和性、Pod反亲和性和节点亲和性的预设配置之一。为此,设置XXX.podAffinityPreset、XXX.podAntiAffinityPreset或XXX.nodeAffinityPreset参数。
| 名称 | 描述 | 值 |
|---|---|---|
global.imageRegistry | 全局Docker镜像仓库 | "" |
global.imagePullSecrets | 全局Docker仓库密钥名称数组 | [] |
global.defaultStorageClass | 持久卷的全局默认StorageClass | "" |
global.security.allowInsecureImages | 允许跳过镜像验证 | false |
global.compatibility.openshift.adaptSecurityContext | 调整部署的securityContext部分,使其与Openshift restricted-v2 SCC兼容:移除runAsUser、runAsGroup和fsGroup,让平台使用其允许的默认ID。可能的值:auto(如果检测到运行的集群是Openshift则应用)、force(始终执行调整)、disabled(不执行调整) | auto |
| 名称 | 描述 | 值 |
|---|---|---|
kubeVersion | 强制目标Kubernetes版本(如果未设置,则使用Helm能力) | "" |
nameOverride | 用于部分覆盖kube-prometheus.name模板的字符串(将前置发布名称) | "" |
fullnameOverride | 用于完全覆盖kube-prometheus.fullname模板的字符串 | "" |
namespaceOverride | 用于完全覆盖common.names.namespace的字符串 | "" |
commonAnnotations | 要添加到所有部署对象的注解 | {} |
commonLabels | 要添加到所有部署对象的标签 | {} |
extraDeploy | 要随发布一起部署的额外对象数组 | [] |
clusterDomain | Kubernetes集群域名 | cluster.local |
| 名称 | 描述 | 值 |
|---|---|---|
operator.enabled | 部署Prometheus Operator到集群 | true |
operator.image.registry | Prometheus Operator镜像仓库 | REGISTRY_NAME |
operator.image.repository | Prometheus Operator镜像存储库 | REPOSITORY_NAME/prometheus-operator |
operator.image.digest | Prometheus Operator镜像摘要,格式为sha256:aa.... 注意:如果设置此参数,将覆盖标签 | "" |
operator.image.pullPolicy | Prometheus Operator镜像拉取策略 | IfNotPresent |
operator.image.pullSecrets | 指定docker-registry密钥名称数组 | [] |
operator.extraArgs | 传递给Prometheus Operator的额外参数 | [] |
operator.command | 覆盖默认容器命令(在使用自定义镜像时有用) | [] |
operator.args | 覆盖默认容器参数(在使用自定义镜像时有用) | [] |
operator.lifecycleHooks | Prometheus Operator容器的生命周期钩子,用于在启动前后自动配置 | {} |
operator.extraEnvVars | 要添加到Prometheus Operator节点的额外环境变量数组 | [] |
operator.extraEnvVarsCM | 包含Prometheus Operator节点额外环境变量的现有ConfigMap名称 | "" |
operator.extraEnvVarsSecret | 包含Prometheus Operator节点额外环境变量的现有Secret名称 | "" |
operator.extraVolumes | 可选地为Prometheus Operator pod指定额外的卷列表 | [] |
operator.extraVolumeMounts | 可选地为Prometheus Operator容器指定额外的volumeMounts列表 | [] |
operator.sidecars | 向Prometheus Operator pod添加额外的sidecar容器 | [] |
operator.initContainers | 向Prometheus Operator pod添加额外的init容器 | [] |
operator.automountServiceAccountToken | 在pod中挂载服务账户令牌 | true |
operator.hostAliases | 添加部署主机别名 | [] |
operator.serviceAccount.create | 指定是否为Prometheus Operator创建ServiceAccount | true |
operator.serviceAccount.name | 要创建的ServiceAccount名称 | "" |
operator.serviceAccount.automountServiceAccountToken | 为服务器服务账户自动挂载服务账户令牌 | false |
operator.serviceAccount.annotations | 服务账户的注解。作为模板计算。仅在create为true时使用。 | {} |
operator.schedulerName | Kubernetes调度器名称(非默认) | "" |
operator.terminationGracePeriodSeconds | Prometheus Operator pod优雅终止所需的时间(秒) | "" |
operator.topologySpreadConstraints | pod分配的拓扑扩展约束 | [] |
operator.podSecurityContext.enabled | 启用 |
_注意:此图表的README超过了DockerHub的25000字符长度限制,因此已被截断。完整README可在[***]
免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。
免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。
当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。
通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。
先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。
使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤
在 Linux 系统上配置轩辕镜像源,支持主流发行版
在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统
在 Docker Compose 中使用轩辕镜像加速,支持容器编排
在 k8s 中配置 containerd 使用轩辕镜像加速
在宝塔面板中配置轩辕镜像加速,提升服务器管理效率
在 Synology 群晖NAS系统中配置轩辕镜像加速
在飞牛fnOS系统中配置轩辕镜像加速
在极空间NAS中配置轩辕镜像加速
在爱快ikuai系统中配置轩辕镜像加速
在绿联NAS系统中配置轩辕镜像加速
在威联通NAS系统中配置轩辕镜像加速
在 Podman 中配置轩辕镜像加速,支持多系统
配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤
无需登录即可使用轩辕镜像加速服务,更加便捷高效
需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429