本项目是Consul的Docker容器。这是一个经过轻微优化、预配置的Consul Agent,专门为Docker生态系统设计。
该容器体积非常小(虚拟大小50MB,基于https://github.com/progrium/busybox%EF%BC%89%EF%BC%8C%E5%8F%AF%E4%BB%8EDocker Index获取:
bash$ docker pull progrium/consul
如果只想运行单个Consul Agent实例以试用其功能:
bash$ docker run -p 8400:8400 -p 8500:8500 -p 8600:53/udp -h node1 progrium/consul -server -bootstrap
可通过添加-ui-dir标志启用Web UI:
bash$ docker run -p 8400:8400 -p 8500:8500 -p 8600:53/udp -h node1 progrium/consul -server -bootstrap -ui-dir /ui
我们暴露了8400(RPC)、8500(HTTP)和8600(DNS)端口,以便试用所有三个接口。同时为容器设置主机名node1,这是为Consul Agent节点命名的推荐方式。
推荐使用HTTP接口通过curl交互:
bash$ curl localhost:8500/v1/catalog/nodes
也可使用dig与DNS接口交互:
bash$ dig @0.0.0.0 -p 8600 node1.node.consul
如果在主机上安装了Consul,还可使用CLI与容器化的Consul Agent交互:
bash$ consul members
如果想在单主机上启动Consul集群以实验集群动态(复制、 leader选举),推荐启动3节点集群的方法如下:
首先启动第一个节点时不使用-bootstrap,而是使用-bootstrap-expect 3,这会等待3个对等节点连接后自动引导并成为可用集群。
bash$ docker run -d --name node1 -h node1 progrium/consul -server -bootstrap-expect 3
通过检查容器获取内部IP,并保存到环境变量JOIN_IP:
bash$ JOIN_IP="$(docker inspect -f '{{.NetworkSettings.IPAddress}}' node1)"
然后启动node2并通过$JOIN_IP加入node1:
bash$ docker run -d --name node2 -h node2 progrium/consul -server -join $JOIN_IP
以相同方式启动node3:
bash$ docker run -d --name node3 -h node3 progrium/consul -server -join $JOIN_IP
现在单主机上运行着一个真正的三节点集群。注意容器名称与其内部主机名/节点名一致。
此时未暴露任何端口以访问集群,可启动第四个"客户端"模式的Agent节点(不使用-server)。客户端节点不参与共识仲裁,但可与集群交互,且无需磁盘持久化:
bash$ docker run -d -p 8400:8400 -p 8500:8500 -p 8600:53/udp --name node4 -h node4 progrium/consul -join $JOIN_IP
现在可通过暴露的端口与集群交互,也可尝试终止、添加和重启节点以观察集群处理能力。
在独立主机上设置真实集群与单主机集群类似,但有几点差异:
-advertise标志将私有IP传递给Consul/data卷用于持久化,示例中挂载主机的/mnt目录假设主机私有IP为10.0.1.1,docker桥接IP为172.17.42.1,启动第一个主机Agent:
bash$ docker run -d -h node1 -v /mnt:/data \ -p 10.0.1.1:8300:8300 \ -p 10.0.1.1:8301:8301 \ -p 10.0.1.1:8301:8301/udp \ -p 10.0.1.1:8302:8302 \ -p 10.0.1.1:8302:8302/udp \ -p 10.0.1.1:8400:8400 \ -p 10.0.1.1:8500:8500 \ -p 172.17.42.1:53:53/udp \ progrium/consul -server -advertise 10.0.1.1 -bootstrap-expect 3
在第二台主机(私有IP 10.0.1.2)上运行类似命令,但添加-join指向第一节点IP:
bash$ docker run -d -h node2 -v /mnt:/data \ -p 10.0.1.2:8300:8300 \ -p 10.0.1.2:8301:8301 \ -p 10.0.1.2:8301:8301/udp \ -p 10.0.1.2:8302:8302 \ -p 10.0.1.2:8302:8302/udp \ -p 10.0.1.2:8400:8400 \ -p 10.0.1.2:8500:8500 \ -p 172.17.42.1:53:53/udp \ progrium/consul -server -advertise 10.0.1.2 -join 10.0.1.1
第三台主机(IP 10.0.1.3):
bash$ docker run -d -h node3 -v /mnt:/data \ -p 10.0.1.3:8300:8300 \ -p 10.0.1.3:8301:8301 \ -p 10.0.1.3:8301:8301/udp \ -p 10.0.1.3:8302:8302 \ -p 10.0.1.3:8302:8302/udp \ -p 10.0.1.3:8400:8400 \ -p 10.0.1.3:8500:8500 \ -p 172.17.42.1:53:53/udp \ progrium/consul -server -advertise 10.0.1.3 -join 10.0.1.1
完成!最后一个节点连接后,集群将自动引导。现在私有网络上运行着一个生产环境的可用集群。
由于生产环境的docker run命令较长,提供了生成命令的工具。运行cmd:run <advertise-ip>[::<join-ip>[::client]] [docker-run-args...]将输出一个可定制的docker run命令,可在子shell中执行。例如:
bash$ docker run --rm progrium/consul cmd:run 10.0.1.1 -d
输出:
basheval docker run --name consul -h $HOSTNAME \ -p 10.0.1.1:8300:8300 \ -p 10.0.1.1:8301:8301 \ -p 10.0.1.1:8301:8301/udp \ -p 10.0.1.1:8302:8302 \ -p 10.0.1.1:8302:8302/udp \ -p 10.0.1.1:8400:8400 \ -p 10.0.1.1:8500:8500 \ -p 172.17.42.1:53:53/udp \ -d \ progrium/consul -server -advertise 10.0.1.1 -bootstrap-expect 3
默认将容器主机名设为宿主机主机名,容器名称为consul(可覆盖),DNS端口绑定到Docker桥接,其他端口绑定到advertise IP。未提供join IP时,以-bootstrap-expect模式运行(默认期望3个节点)。另一个示例,指定join IP并添加更多docker参数:
bash$ docker run --rm progrium/consul cmd:run 10.0.1.1::10.0.1.2 -d -v /mnt:/data
输出:
basheval docker run --name consul -h $HOSTNAME \ -p 10.0.1.1:8300:8300 \ -p 10.0.1.1:8301:8301 \ -p 10.0.1.1:8301:8301/udp \ -p 10.0.1.1:8302:8302 \ -p 10.0.1.1:8302:8302/udp \ -p 10.0.1.1:8400:8400 \ -p 10.0.1.1:8500:8500 \ -p 172.17.42.1:53:53/udp \ -d -v /mnt:/data \ progrium/consul -server -advertise 10.0.1.1 -join 10.0.1.2
注意该命令仅允许同时使用bootstrap-expect或join。可通过设置EXPECT环境变量修改引导前的期望节点数。
要使用此工具,将cmd:run输出包装在子shell中执行:
bash$ $(docker run --rm progrium/consul cmd:run 127.0.0.1 -it)
客户端标志
客户端节点允许扩展集群而不影响底层 gossip协议性能(它们将请求代理到服务器节点,因此是无状态的)。
使用runner命令启动客户端节点,在<advertise-ip>::<join-ip>参数后追加::client。例如:
bash$ docker run --rm progrium/consul cmd:run 10.0.1.4::10.0.1.2::client -d
输出将不含-server标志。
Consul允许指定shell脚本进行健康检查(类似Nagios)。作为容器,这些脚本在Busybox环境中运行(包含bash和curl)。为方便使用,提供了内置工具用于Docker环境的健康检查。
使用这些工具需将宿主机的Docker socket挂载到容器的/var/run/docker.sock。
使用check-http
bashcheck-http <container-id> <port> <path> [curl-args...]
该工具基于curl执行HTTP健康检查,需提供容器ID或名称、内部端口(容器内服务监听端口)和路径。可选择提供额外curl参数。
HTTP请求在附加到目标容器网络命名空间的临时容器中执行。工具自动确定内部Docker IP。成功请求将响应头输出到Consul,失败则输出原因并设为critical状态。默认curl使用--retry 2以应对临时错误。
使用check-cmd
bashcheck-cmd <container-id> <port> <command...>
该工具在基于目标容器镜像的临时容器中执行指定命令,附加到目标容器的网络命名空间。通常用于健康检查脚本,也可执行任何容器镜像支持的命令。环境变量SERVICE_ADDR会自动设置为内部Docker IP和指定端口。
使用docker
上述健康检查工具需要Docker二进制,已内置在容器中。如果上述工具不满足需求,且容器环境受限,可直接执行Docker操作进行任何容器化健康检查。
该容器设计用于为其他容器提供DNS服务,因此在容器内监听53端口以提高兼容性和链接可访问性。启用了DNS递归查询,使用Google 8.8.8.8名称服务器。
使用cmd:run时,DNS端口发布到Docker桥接。可在docker run中使用--dns标志,或更好地配置Docker守护进程。在Ubuntu系统上,可运行以下命令配置Docker使用桥接IP作为DNS,备用Google DNS,并将service.consul作为搜索域:
bash$ echo "DOCKER_OPTS='--dns 172.17.42.1 --dns 8.8.8.8 --dns-search service.consul'" >> /etc/default/docker
如果在OS X上使用http://boot2docker.io/%EF%BC%8C%E9%9C%80%E5%9C%A8Tiny Core Linux VM中设置Docker守护进程选项(boot2docker v1.3.1及以上),使用OS X的第一个DNS服务器进行外部解析:
bash$ boot2docker ssh sudo "ash -c \"echo EXTRA_ARGS=\'--dns 172.17.42.1 --dns $(scutil --dns | awk -F ': ' '/nameserver/{print $2}' | head -1) --dns-search service.consul\' > /var/lib/boot2docker/profile\""
配置后,Docker容器的/etc/resolv.conf将自动包含适当条目。可使用含dig工具的容器测试(如https://registry.hub.docker.com/u/aanand/docker-dnsutils/%EF%BC%89%EF%BC%9A
bash$ docker run --rm aanand/docker-dnsutils dig -t SRV consul +search
尽管可扩展此镜像添加配置文件定义服务和检查,但该容器设计用于可通过HTTP API在运行时配置服务和检查的环境。
建议保持检查逻辑简单(如内联curl或ping命令)。默认shell为Bash,但运行在Busybox环境中。
如需自定义启动配置,可基于此镜像构建新Dockerfile,添加包含JSON配置文件的config目录,ONBUILD钩子将自动添加它们。也可使用opkg添加包,详见https://github.com/progrium/busybox%E3%80%82
测试集群时,终止容器后使用相同IP重启可能导致节点难以重新加入集群。
这是由于重启新容器使用相同发布端口时,ARP表缓存问题会导致心跳失败和节点波动。等待约3分钟后重启通常可解决,也可手动重置缓存。
本项目由DigitalOcean支持。
BSD
以下是 hoist/consul 相关的常用 Docker 镜像,适用于 不同场景 等不同场景:
您可以使用以下命令拉取该镜像。请将 <标签> 替换为具体的标签版本。如需查看所有可用标签版本,请访问 标签列表页面。

探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录认证访问私有仓库
无需登录使用专属域名
Kubernetes 集群配置 Containerd
K3s 轻量级 Kubernetes 镜像加速
VS Code Dev Containers 配置
Podman 容器引擎配置
HPC 科学计算容器配置
ghcr、Quay、nvcr 等镜像仓库
Harbor Proxy Repository 对接专属域名
Portainer Registries 加速拉取
Nexus3 Docker Proxy 内网缓存
需要其他帮助?请查看我们的 常见问题Docker 镜像访问常见问题解答 或 提交工单
docker search 限制
站内搜不到镜像
离线 save/load
插件要用 plugin install
WSL 拉取慢
安全与 digest
新手拉取配置
镜像合规机制
manifest unknown
no matching manifest(架构)
invalid tar header(解压)
TLS 证书失败
DNS 超时
域名连通性排查
410 Gone 排查
402 与流量用尽
401 认证失败
429 限流
D-Bus 凭证提示
413 与超大单层
来自真实用户的反馈,见证轩辕镜像的优质服务