本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com
kube-proxy-amd64 镜像是上游 kube-proxy 组件的 AMD64 架构镜像,用于在 Kubernetes 集群节点上实现网络代理功能。kube-proxy 是 Kubernetes 网络模型的核心组件之一,负责维护节点网络规则、转发 Service 流量至后端 Pod,并实现 Kubernetes Service 资源的网络抽象。
| 功能 | 说明 |
|---|---|
| Service 全类型代理 | 支持 ClusterIP(集群内访问)、NodePort(节点端口暴露)、Load***(外部负载均衡)等 Service 类型的流量转发 |
| 多协议支持 | 处理 TCP、UDP 协议流量,满足不同服务通信需求 |
| 流量转发与负载均衡 | 基于 Endpoint 信息,将流量分发至后端健康 Pod,支持简单轮询、会话亲和性(Session Affinity)等策略 |
| 网络规则动态更新 | 通过监听 Kubernetes API Server,实时同步 Service 和 Endpoint 变化,动态调整节点 iptables/ipvs 规则 |
| 健康检查集成 | 配合 kubelet 或外部健康检查工具,确保仅转发流量至健康 Pod |
iptables(默认,轻量级)和 ipvs(高性能,支持更多负载均衡算法)两种代理模式sessionAffinity: ClientIP 配置)通过容器镜像仓库拉取指定版本的镜像(版本需与集群 Kubernetes 版本匹配):
docker pull k8s.gcr.io/kube-proxy-amd64:v1.28.0 # 示例版本,需替换为实际集群版本 # 国内仓库可使用镜像代理,如 registry.aliyuncs.com/google_containers/kube-proxy-amd64:v1.28.0
kube-proxy 通常以 DaemonSet 形式在 Kubernetes 集群所有节点(或指定节点)上运行,由 kubelet 管理。以下为典型 DaemonSet 配置示例:
apiVersion: apps/v1 kind: DaemonSet metadata: name: kube-proxy namespace: kube-system spec: selector: matchLabels: k8s-app: kube-proxy template: metadata: labels: k8s-app: kube-proxy spec: hostNetwork: true # 使用主机网络,确保网络规则对主机可见 containers: - name: kube-proxy image: k8s.gcr.io/kube-proxy-amd64:v1.28.0 # 替换为实际镜像版本 command: - /usr/local/bin/kube-proxy - --config=/var/lib/kube-proxy/config.conf # 配置文件路径 - --hostname-override=$(NODE_NAME) # 使用节点名称覆盖主机名 env: - name: NODE_NAME valueFrom: fieldRef: fieldPath: spec.nodeName volumeMounts: - name: kubeconfig mountPath: /var/lib/kube-proxy readOnly: true - name: lib-modules mountPath: /lib/modules readOnly: true - name: xtables-lock mountPath: /run/xtables.lock readOnly: false volumes: - name: kubeconfig configMap: name: kube-proxy - name: lib-modules hostPath: path: /lib/modules - name: xtables-lock hostPath: path: /run/xtables.lock type: FileOrCreate
kube-proxy 支持通过命令行参数或配置文件(config.conf)进行配置,常用核心参数如下:
| 参数 | 说明 | 默认值 |
|---|---|---|
--proxy-mode | 代理模式,可选 iptables 或 ipvs | iptables |
--cluster-cidr | 集群 Pod CIDR 范围,用于识别集群内部流量 | 需手动指定(如 10.244.0.0/16) |
--healthz-port | 健康检查端口 | 10256 |
--metrics-bind-address | 指标暴露地址(Prometheus 监控) | 0.0.0.0:10249 |
--conntrack-max-per-core | 每核心最大连接跟踪数(影响并发连接能力) | 32768 |
--session-affinity-timeout | 会话亲和性超时时间(ClientIP 模式下,同一客户端请求绑定至同一 Pod 的时长) | 180s |
若通过配置文件(config.conf)定义参数,典型格式如下(需挂载至容器 /var/lib/kube-proxy/config.conf):
{ "kind": "KubeProxyConfiguration", "apiVersion": "kubeproxy.config.k8s.io/v1alpha1", "proxyMode": "ipvs", "clusterCIDR": "10.244.0.0/16", "ipvs": { "scheduler": "rr", # 负载均衡算法:rr(轮询)、lc(最少连接)、dh(目标哈希)等 "syncPeriod": "30s" # 规则同步周期 }, "healthzBindAddress": "0.0.0.0:10256", "metricsBindAddress": "0.0.0.0:10249" }
hostNetwork: true)及 CAP_NET_ADMIN 等系统能力,以修改主机 iptables/ipvs 规则。iptables 模式适用于小规模集群(节点数 < 100),ipvs 模式支持更高并发和更多负载均衡策略,推荐中大规模集群使用。免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。
免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。
当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。
通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。
先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。
使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤
在 Linux 系统上配置轩辕镜像源,支持主流发行版
在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统
在 Docker Compose 中使用轩辕镜像加速,支持容器编排
在 k8s 中配置 containerd 使用轩辕镜像加速
在宝塔面板中配置轩辕镜像加速,提升服务器管理效率
在 Synology 群晖NAS系统中配置轩辕镜像加速
在飞牛fnOS系统中配置轩辕镜像加速
在极空间NAS中配置轩辕镜像加速
在爱快ikuai系统中配置轩辕镜像加速
在绿联NAS系统中配置轩辕镜像加速
在威联通NAS系统中配置轩辕镜像加速
在 Podman 中配置轩辕镜像加速,支持多系统
配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤
无需登录即可使用轩辕镜像加速服务,更加便捷高效
需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429