s390x/zookeeper注意:这是zookeeper官方镜像的s390x架构构建版本的"每架构"仓库——更多信息,请参见官方镜像文档中的"除amd64外的架构?"和官方镜像FAQ中的"镜像源在Git中已更改,该怎么办?"。
维护者:
Docker社区
获取帮助:
Docker社区Slack、Server Fault、Unix & Linux 或 Stack Overflow
Dockerfile链接3.8.4, 3.8, 3.8.4-jre-17, 3.8-jre-17
3.9.4, 3.9, 3.9.4-jre-17, 3.9-jre-17, latest
提交问题:
[***]
支持的架构:(更多信息)
amd64、arm64v8、ppc64le、s390x
镜像 artifact 详情:
repo-info 仓库的repos/zookeeper/目录(历史记录)
(镜像元数据、传输大小等)
镜像更新:
official-images 仓库的library/zookeeper标签
official-images 仓库的library/zookeeper文件(历史记录)
本描述的来源:
docs 仓库的zookeeper/目录(历史记录)
Apache ZooKeeper 是 Apache 软件基金会的一个软件项目,为大型分布式系统提供开源的分布式配置服务、同步服务和命名注册。ZooKeeper 曾是 Hadoop 的子项目,现在已成为独立的顶级项目。
***.org/wiki/Apache_ZooKeeper
!logo
console$ docker run --name some-zookeeper --restart always -d s390x/zookeeper
此镜像包含EXPOSE 2181 2888 3888 8080(分别对应 Zookeeper 客户端端口、 follower 端口、选举端口、AdminServer 端口),因此标准容器链接会自动使其对链接的容器可用。由于 Zookeeper 采用"快速失败"机制,建议始终重启它。
console$ docker run --name some-app --link some-zookeeper:zookeeper -d application-that-uses-zookeeper
console$ docker run -it --rm --link some-zookeeper:zookeeper s390x/zookeeper zkCli.sh -server zookeeper
docker composezookeeper的compose.yaml示例:
yamlservices: zoo1: image: zookeeper restart: always hostname: zoo1 ports: - 2181:2181 environment: ZOO_MY_ID: 1 ZOO_SERVERS: server.1=zoo1:2888:3888;2181 server.2=zoo2:2888:3888;2181 server.3=zoo3:2888:3888;2181 zoo2: image: zookeeper restart: always hostname: zoo2 ports: - 2182:2181 environment: ZOO_MY_ID: 2 ZOO_SERVERS: server.1=zoo1:2888:3888;2181 server.2=zoo2:2888:3888;2181 server.3=zoo3:2888:3888;2181 zoo3: image: zookeeper restart: always hostname: zoo3 ports: - 2183:2181 environment: ZOO_MY_ID: 3 ZOO_SERVERS: server.1=zoo1:2888:3888;2181 server.2=zoo2:2888:3888;2181 server.3=zoo3:2888:3888;2181
这将以复制模式启动 Zookeeper。运行docker compose up并等待其完全初始化。端口2181-2183将被暴露。
请注意,在单台机器上设置多个服务器不会创建任何冗余。如果机器发生故障,所有 Zookeeper 服务器都将离线。完全冗余要求每个服务器有自己的机器,且必须是完全独立的物理服务器。同一物理主机上的多个虚拟机仍容易受到该主机完全故障的影响。
在复制模式下运行 Zookeeper 时,考虑使用Docker Swarm。
Zookeeper 配置位于/conf。更改配置的一种方法是将配置文件挂载为卷:
console$ docker run --name some-zookeeper --restart always -d -v $(pwd)/zoo.cfg:/conf/zoo.cfg s390x/zookeeper
如果未提供zoo.cfg文件,将使用 Zookeeper 推荐的默认值。可使用以下环境变量覆盖默认值:
console$ docker run -e "ZOO_INIT_LIMIT=10" --name some-zookeeper --restart always -d s390x/zookeeper
ZOO_TICK_TIME默认值为2000。Zookeeper 的tickTime。
单个 tick 的长度,以毫秒为单位,是 Zookeeper 使用的基本时间单位,用于调节心跳和超时。例如,最小会话超时为两个 tick。
ZOO_INIT_LIMIT默认值为5。Zookeeper 的initLimit。
允许 follower 连接并同步到 leader 的时间(以 tick 为单位,参见 tickTime)。如果 Zookeeper 管理的数据量较大,需要增加此值。
ZOO_SYNC_LIMIT默认值为2。Zookeeper 的syncLimit。
允许 follower 与 Zookeeper 同步的时间(以 tick 为单位,参见 tickTime)。如果 follower 落后 leader 太多,将被丢弃。
ZOO_MAX_CLIENT_CNXNS默认值为60。Zookeeper 的maxClientCnxns。
限制单个客户端(按 IP 地址识别)对 Zookeeper 集群中单个成员的并发连接数(在 socket 级别)。
ZOO_STANDALONE_ENABLED默认值为true。Zookeeper 的standaloneEnabled。
在 3.5.0 之前,Zookeeper 可以以独立模式或分布式模式运行。这是两个独立的实现栈,运行时无法切换。默认情况下(为保持向后兼容性),standaloneEnabled 设置为 true。使用此默认值的结果是,如果以单个服务器启动,集群将不允许扩展;如果以多个服务器启动,将不允许缩减到少于两个参与者。
ZOO_ADMINSERVER_ENABLED默认值为true。Zookeeper 的admin.enableServer。
AdminServer 是一个嵌入式 Jetty 服务器,提供 HTTP 接口来执行四字命令。默认情况下,服务器在端口 8080 上启动,可通过访问 URL "/commands/[命令名称]" 执行命令,例如 http://localhost:8080/commands/stat。
ZOO_AUTOPURGE_PURGEINTERVAL默认值为0。Zookeeper 的autoPurge.purgeInterval。
触发清理任务的时间间隔(小时)。设置为正整数(1 及以上)以启用自动清理。默认值为 0。
ZOO_AUTOPURGE_SNAPRETAINCOUNT默认值为3。Zookeeper 的autoPurge.snapRetainCount。
启用后,Zookeeper 自动清理功能会在 dataDir 和 dataLogDir 中分别保留最近的 autopurge.snapRetainCount 个快照和相应的事务日志,并删除其余的。默认值为 3。最小值为 3。
ZOO_4LW_COMMANDS_WHITELIST默认值为srvr。Zookeeper 的4lw.commands.whitelist。
用户想要使用的四字命令的逗号分隔列表。必须将有效的四字命令放入此列表,否则 Zookeeper 服务器将不启用该命令。默认情况下,白名单仅包含 zkServer.sh 使用的 "srvr" 命令。其余四字命令默认禁用。
ZOO_CFG_EXTRA并非所有 Zookeeper 配置设置都通过上述环境变量公开。这些变量仅用于覆盖基本配置关键字和一些经常更改的选项。如果挂载自定义配置文件不适合你,可考虑使用ZOO_CFG_EXTRA环境变量。可使用此变量向 Zookeeper 配置文件添加任意配置参数。以下示例显示如何在端口7070上启用 Prometheus 指标导出器:
console$ docker run --name some-zookeeper --restart always -e ZOO_CFG_EXTRA="metricsProvider.className=org.apache.zookeeper.metrics.prometheus.PrometheusMetricsProvider metricsProvider.httpPort=7070" s390x/zookeeper
JVMFLAGS许多 Zookeeper 高级配置选项可通过 Java 系统属性(形式为-Dproperty=value)在此设置。例如,可使用 Netty 而非 NIO(默认选项)作为服务器通信框架:
console$ docker run --name some-zookeeper --restart always -e JVMFLAGS="-Dzookeeper.serverCnxnFactory=org.apache.zookeeper.server.NettyServerCnxnFactory" s390x/zookeeper
参见高级配置获取支持的 Java 系统属性完整列表。
JVMFLAGS的另一个示例用例是设置最大 JVM 堆大小为 1 GB:
console$ docker run --name some-zookeeper --restart always -e JVMFLAGS="-Xmx1024m" s390x/zookeeper
如果要以复制模式运行 Zookeeper,以下环境变量是必需的。
ZOO_MY_IDid 在集群中必须唯一,值应在 1 到 255 之间。注意,如果启动容器时/data目录已包含myid文件,此变量将无效。
ZOO_SERVERS此变量允许指定 Zookeeper 集群的机器列表。每个条目应指定为:server.id=<address1>:<port1>:<port2>[:role];[<client port address>:]<client port> Zookeeper 动态重配置。条目之间用空格分隔。注意,如果启动容器时/conf目录已包含zoo.cfg文件,此变量将无效。
此镜像配置了/data和/datalog卷,分别用于存储 Zookeeper 内存数据库快照和数据库更新的事务日志。
注意事务日志的存储位置。专用的事务日志设备是保持良好性能的关键。将日志放在繁忙的设备上会对性能产生不利影响。
默认情况下,ZooKeeper 将 stdout/stderr 输出重定向到控制台。从 3.8 版本开始,ZooKeeper 附带LOGBack作为日志后端。ZooKeeper 默认的logback.xml文件位于/conf目录。要覆盖默认日志配置,可将自定义配置挂载为卷:
console$ docker run --name some-zookeeper --restart always -d -v $(pwd)/logback.xml:/conf/logback.xml s390x/zookeeper
查看ZooKeeper 日志记录了解更多详情。
可通过传递环境变量ZOO_LOG4J_PROP将日志重定向到/logs中的文件,如下所示:
console$ docker run --name some-zookeeper --restart always -e ZOO_LOG4J_PROP="INFO,ROLLINGFILE" s390x/zookeeper
这会将日志写入/logs/zookeeper.log。此镜像配置了/logs卷以方便使用。
查看此镜像中包含的软件的许可证信息。
与所有 Docker 镜像一样,这些镜像可能还包含其他软件,这些软件可能采用其他许可证(例如基础发行版中的 Bash 等,以及主要软件的任何直接或间接依赖项)。
一些能够自动检测到的额外许可证信息可能位于repo-info 仓库的zookeeper/目录中。
对于任何预构建镜像的使用,镜像用户有责任确保对该镜像的任何使用符合其中包含的所有软件的相关许可证。


manifest unknown 错误
TLS 证书验证失败
DNS 解析超时
410 错误:版本过低
402 错误:流量耗尽
身份认证失败错误
429 限流错误
凭证保存错误
来自真实用户的反馈,见证轩辕镜像的优质服务