专属域名
文档搜索
轩辕助手
Run助手
邀请有礼
返回顶部
快速返回页面顶部
收起
收起工具栏
轩辕镜像 官方专业版
轩辕镜像 官方专业版轩辕镜像 官方专业版官方专业版
首页个人中心搜索镜像

交易
充值流量我的订单
工具
提交工单镜像收录一键安装
Npm 源Pip 源Homebrew 源
帮助
常见问题
其他
关于我们网站地图

官方QQ群: 1072982923

cricketeerone/apache-kafka-connect Docker 镜像 - 轩辕镜像 | Docker 镜像高效稳定拉取服务

热门搜索:openclaw🔥nginx🔥redis🔥mysqlopenjdkcursorweb2apimemgraphzabbixetcdubuntucorednsjdk
apache-kafka-connect
cricketeerone/apache-kafka-connect
cricketeerone
使用GoogleContainerTools/Jib打包Apache Kafka Connect分布式服务器的Docker镜像,支持环境变量配置Worker属性,提供包含confluent-hub的版本及Alpine变体,便于快速部署和扩展Kafka Connect集群。
1 次收藏下载次数: 0状态:社区镜像维护者:cricketeerone仓库类型:镜像最近更新:8 个月前
使用轩辕镜像,把时间还给真正重要的事。点击查看
中文简介版本下载
使用轩辕镜像,把时间还给真正重要的事。点击查看

容器化 Apache Kafka Connect

![Docker镜像版本 (tag latest semver)]([] ![Docker镜像大小 (latest semver)]([] ![Docker拉取次数]([***]

![许可证]([***]

使用 GoogleContainerTools/Jib 打包Apache Kafka Connect分布式服务器。

拉取Docker镜像!🐳

sh
docker pull cricketeerone/apache-kafka-connect

还有包含 confluent-hub 的镜像版本!

sh
docker pull cricketeerone/apache-kafka-connect:latest-confluent-hub

同时提供Alpine变体,详情请查看 Docker Hub。

目录

  • 镜像详情
  • 本地构建
  • 教程
    • 不使用Docker
    • 在Docker中启动Kafka
  • 扩展内容
    • 纵向扩展
    • 横向扩展
  • 使用新连接器扩展
  • HTTP认证

镜像详情

与 confluentinc/cp-kafka-connect 镜像类似,此容器使用以 CONNECT_ 开头的环境变量,后跟需要配置的Kafka Connect Worker属性。

例如,以下是运行Connect分布式服务器所需的最低限度变量,但假设它连接到至少有3个broker的Kafka集群(三个主题的副本因子):

txt
CONNECT_BOOTSTRAP_SERVERS
CONNECT_GROUP_ID
CONNECT_KEY_CONVERTER
CONNECT_VALUE_CONVERTER
CONNECT_CONFIG_STORAGE_TOPIC
CONNECT_OFFSET_STORAGE_TOPIC
CONNECT_STATUS_STORAGE_TOPIC

有关这些变量在连接到Kafka broker时的完整使用示例,请参见 docker-compose.yml。

本地构建

想要构建自己的镜像?简而言之 - 克隆仓库,然后使用 ./mvnw clean compile jib:dockerBuild 或 MVN_BUILD_CMD='compile jib:dockerBuild' make 即可完成!

多平台构建(buildx)

默认情况下,使用上述命令将构建基于Ubuntu的 linux/amd64 架构镜像。
以下命令通过Docker Buildx构建多平台镜像并推送到个人Docker Hub账户:

sh
BUILDX_PLATFORMS=linux/arm64,linux/amd64 DOCKER_USER=$(whoami) make

截至2023年5月,Eclipse Temurin镜像的Alpine变体不支持 arm64 架构。

推送到私有仓库

要推送到私有Docker仓库,需要先 docker login 到该地址。以下命令将 apache-kafka-connect 镜像推送到私有仓库中当前用户名下:

sh
$ docker login <仓库地址> --username=$(whoami)

$ DOCKER_REGISTRY=<仓库地址> DOCKER_USER=$(whoami) \
  make

教程

本教程使用Jib打包 ConnectDistributed 类来运行Kafka Connect分布式模式worker。以下说明使用 Bitnami Kafka镜像,但其他Kafka Docker镜像也应适用。

本教程大致遵循 Kafka官方网站上的Connect教程,但使用分布式Connect服务器。

不使用Docker

如果不使用Docker,可以使用相应的启动脚本在本地启动Kafka(如果不使用Kraft,还需要ZooKeeper)。此时,引导服务器的变量需要相应调整。

以下步骤可用于在Docker外部本地运行此应用:

bash
# 假设Kafka使用默认端口
export CONNECT_BOOTSTRAP_SERVERS=127.0.0.1:9092

export CONNECT_GROUP_ID=cg_connect-jib
export CONNECT_CONFIG_STORAGE_TOPIC=connect-jib_config
export CONNECT_OFFSET_STORAGE_TOPIC=connect-jib_offsets
export CONNECT_STATUS_STORAGE_TOPIC=connect-jib_status
# 不能高于Kafka集群中的broker数量
export CONNECT_CONFIG_STORAGE_REPLICATION_FACTOR=1
export CONNECT_OFFSET_STORAGE_REPLICATION_FACTOR=1
export CONNECT_STATUS_STORAGE_REPLICATION_FACTOR=1

# 默认使用ByteArrayConverter,允许各个连接器自行配置
export CONNECT_KEY_CONVERTER=org.apache.kafka.connect.converters.ByteArrayConverter
export CONNECT_VALUE_CONVERTER=org.apache.kafka.connect.converters.ByteArrayConverter

# 通过Maven运行ConnectDistributed
./mvnw clean exec:java
在Docker中启动Kafka集群

注意:有时Kafka容器会在以下步骤中自行终止,因此消费者命令可能需要重新执行。Connect worker应能自行重新连接。

本练习需要使用三个独立的终端窗口,请先打开它们。

首先,在前台启动集群。这会启动Kafka,在主机上监听 9092 端口,在Docker网络内监听 29092 端口。

终端1

bash
docker compose up kafka
创建Kafka主题

需要创建用于生产数据的主题:

终端2

bash
docker compose exec kafka \
    bash -c "kafka-topics.sh --create --bootstrap-server kafka:29092 --topic input --partitions=1 --replication-factor=1"

验证主题是否存在:

bash
docker compose exec kafka \
    bash -c "kafka-topics.sh --list --bootstrap-server kafka:29092"

列表中应包含 input 主题。

向input主题生产Lorem Ipsum数据
bash
docker compose exec kafka \
    bash -c "cat /data/lipsum.txt | kafka-console-producer.sh --topic input --broker-list kafka:29092"

验证数据是否存在(注意:将 max-messages 设置为预期文本的行数):

bash
docker compose exec kafka \
    bash -c "kafka-console-consumer.sh --topic input --bootstrap-server kafka:29092 --from-beginning --max-messages=9"

应看到最后一行 Processed a total of 9 messages(共处理了9条消息)。

启动Kafka Connect

现在,可以构建Kafka Connect镜像并启动它:

bash
./mvnw clean install

docker compose up connect-jib-1

等待日志中出现 Kafka Connect Started(Kafka Connect已启动),然后创建FileSink连接器。如果未提供 file 参数,连接器任务将把数据写入容器的标准输出(终端1)。

终端3

使用Kafka Connect REST API启动此过程:

bash
curl -XPUT http://localhost:8083/connectors/console-sink/config -H 'Content-Type: application/json' -d '{
    "connector.class": "FileStreamSink",
    "tasks.max": 1,
    "topics": "input",
    "transforms": "MakeMap,AddPartition",
    "transforms.MakeMap.type": "org.apache.kafka.connect.transforms.HoistField$Value",
    "transforms.MakeMap.field" : "line",
    "transforms.AddPartition.type": "org.apache.kafka.connect.transforms.InsertField$Value",
    "transforms.AddPartition.partition.field" : "partition!",
    "key.converter": "org.apache.kafka.connect.storage.StringConverter",
    "value.converter": "org.apache.kafka.connect.storage.StringConverter"
}'

这将从 input 主题的起始位置读取数据并开始处理。

在终端2的输出中,应看到类似以下内容:

text
connect-jib_1  | Struct{line=Morbi eu pharetra dolor. ....,partition=1}
connect-jib_1  | Struct{line=,partition=1}
connect-jib_1  | Struct{line=Nullam mauris sapien, vestibulum ....,partition=1}

这是Kafka Connect内部 Struct 类的 toString() 表示。由于添加了 HoistField$Value 转换,因此会有一个结构化对象,其中 line 字段设置为从 lipsum.txt 文件行中读取的Kafka消息值,partition 字段设置为消费记录的分区。该主题仅创建了一个分区。

要重复此过程,请删除连接器并重置消费者组:

bash
curl -XDELETE http://localhost:8083/connectors/console-sink

docker compose exec kafka \
    bash -c "kafka-consumer-groups.sh --bootstrap-server kafka:29092 --group connect-console-sink --reset-offsets --all-topics --to-earliest --execute"

重新运行上述console-producer和 curl -XPUT ... 命令,此时将打印超过9条消息。

扩展内容

纵向扩展

使用具有多个分区的新主题重新执行教程,向其中生产更多输入数据,然后增加连接器的 max.tasks。注意输出中的 partition 字段可能会变化(可能需要多次生产数据以随机化记录批次)。

横向扩展

扩展worker需要添加另一个容器,并设置唯一的 CONNECT_ADVERTISED_HOST_NAME 变量。例如:

yml
connect-jib-2:
    image:  *connect-image
    hostname: connect-jib-2
    depends_on:
        - kafka
    environment:
        <<: *connect-vars
        CONNECT_REST_ADVERTISED_HOST_NAME: connect-jib-2

应在所有实例前添加反向代理。docker-compose.cluster.yml 中提供了使用Traefik的示例,可通过 docker compose -f docker-compose.cluster.yml up 启动,并使用 curl -H Host:connect-jib.docker.localhost http://127.0.0.1/ 进行测试。

使用新连接器扩展

免责声明:最好将此镜像视为可添加自定义连接器的基础镜像。以下是Apache Kafka项目提供的默认连接器插件输出。

连接器插件最好放置在 /app/libs 目录中,因此需要设置环境变量 CONNECT_PLUGIN_PATH="/app/libs"。

使用 confluent-hub 镜像标签时,可以按如下方式扩展这些镜像:

Dockerfile
FROM cricketeerone/apache-kafka-connect:latest-confluent-hub

# 示例连接器安装
RUN confluent-hub install --no-prompt \
    --component-dir /app/libs --worker-configs /app/resources/connect-distributed.properties -- \
    <connector-id>

其中 <connector-id> 可从 Confluent Hub 上的可用资源中复制。无法保证Kafka Connect基础版本与安装的任何插件版本之间的兼容性。

需要重申的是,confluent-hub 不包含在基础镜像版本中;它们仅包含 Apache Kafka提供的连接器类,限于File Sink/Source和MirrorSource Connector(MirrorMaker 2.0)。通常,您可能需要按上述方式添加自己的连接器。

默认插件
bash
$ curl localhost:8083/connector-plugins | jq
[
    {
        "class": "org.apache.kafka.connect.file.FileStreamSinkConnector",
        "type": "sink",
        "version": "3.5.1"
    },
    {
        "class": "org.apache.kafka.connect.file.FileStreamSourceConnector",
        "type": "source",
        "version": "3.5.1"
    },
    {
        "class": "org.apache.kafka.connect.mirror.MirrorCheckpointConnector",
        "type": "source",
        "version": "3.5.1"
    },
    {
        "class": "org.apache.kafka.connect.mirror.MirrorHeartbeatConnector",
        "type": "source",
        "version": "3.5.1"
    },
    {
        "class": "org.apache.kafka.connect.mirror.MirrorSourceConnector",
        "type": "source",
        "version": "3.5.1"
    }
]

File Source/Sink 不应用于生产环境,根据文档,它们仅作为"简单的独立示例":

Kafka源代码中的 file 包包含一个简单示例连接器。此连接器仅用于独立模式

...

文件具有简单的结构化数据——每行只是一个字符串。几乎所有实际连接器都需要具有更复杂数据格式的模式。

话虽如此,MirrorSource将是更贴近实际应用的示例。

HTTP认证

Confluent文档涵盖了基本身份验证。

创建文件:

shell
$ cat /tmp/connect-jaas.conf
KafkaConnect {
    org.apache.kafka.connect.rest.basic.auth.extension.PropertyFileLoginModule required
    file="/tmp/connect.password";
};
$ cat /tmp/connect.password  # 根据需要添加多行
admin: OneCricketeer

添加环境变量和挂载(JAVA_TOOL_OPTIONS 来自Eclipse Temurin基础镜像):

yaml
    environment:
      ...
      # 认证
      CONNECT_REST_EXTENSION_CLASSES: org.apache.kafka.connect.rest.basic.auth.extension.BasicAuthSecurityRestExtension
      JAVA_TOOL_OPTIONS: "-Djava.security.auth.login.config=/app/connect-jaas.conf"
    volumes:
      # 认证
      - /tmp/connect-jaas.conf:/app/connect-jaas.conf:ro
      - /tmp/connect.password:/tmp/connect.password:ro

启动 docker compose up 并测试:

shell
$ curl -w'\n' http://localhost:8083
User cannot access the resource.  # 用户无法访问资源
$ curl -w'\n' -uadmin:OneCricketeer http://localhost:8083
{"version":"3.5.1","commit":"2c6fb6c54472e90a","kafka_cluster_id":"nA5eYC5WSrSHjaKgw1BpHg"}

Maven详情

exec:java 目标可用于在Docker外部运行Kafka Connect。

例如,要重建容器,运行 ./mvnw clean install 或 make。

清理环境

bash
docker compose rm -sf
# 清理挂载的docker卷
docker volume ls | grep $(basename `pwd`) | awk '{print $2}' | xargs docker volume rm
# 清理网络
docker network ls | grep $(basename `pwd`) | awk '{print $2}' | xargs docker network rm

更多信息

了解 更多关于Jib。

了解 更多关于Apache Kafka和Kafka Connect。

查看更多 apache-kafka-connect 相关镜像 →
ueisele/apache-kafka-connect logo
ueisele/apache-kafka-connect
ueisele
用于以分布式模式运行Apache Kafka Connect开源版本的容器镜像,基于ueisele/apache-kafka-connect-base构建,包含Confluent Hub Cli及预装的Kafka Connect插件,支持灵活配置和扩展,镜像源码和构建文件分别托管于Docker Hub和GitLab。
1万+ 次下载
3 个月前更新
apache/kafka logo
apache/kafka
Apache 软件基金会镜像
Apache Kafka是一个开源的分布式流处理平台,旨在提供高吞吐量、低延迟的实时数据流传递服务,支持发布/订阅消息模式,能够持久化存储海量数据流并确保数据可靠性,具备水平扩展能力和容错机制,广泛应用于日志收集、事件驱动架构、实时数据集成及流处理系统等场景,为企业级应用提供高效、稳定的数据流传输与处理解决方案。
201 次收藏1000万+ 次下载
24 天前更新
apache/kafka-native logo
apache/kafka-native
Apache 软件基金会镜像
Apache Kafka原生镜像,提供分布式流处理平台功能,支持高吞吐量的发布/订阅消息传递,适用于构建实时数据管道和流处理应用。
23 次收藏100万+ 次下载
24 天前更新
bitnami/kafka logo
bitnami/kafka
Bitnami Secure Images(VMware Tanzu)
比特纳米Kafka安全镜像是一款针对分布式流处理平台Kafka的预配置、安全加固容器镜像,集成行业最佳安全实践,涵盖漏洞扫描、最小权限原则、加密通信支持及合规性检查,旨在简化Kafka部署流程,确保数据传输与存储安全性,适用于企业级流数据处理场景,帮助用户快速搭建安全可靠的Kafka集群。
959 次收藏1亿+ 次下载
7 个月前更新
apache/airflow logo
apache/airflow
Apache 软件基金会镜像
Apache Airflow是一个开源的工作流编排平台,旨在通过编程方式(主要使用Python)定义、调度和监控复杂工作流,它以有向无环图(DAG)形式管理任务依赖关系,支持灵活的调度策略(如基于时间、事件或依赖),提供直观的Web界面用于任务状态监控与管理,具备高度可扩展性,可集成多种数据处理工具、云服务及外部系统,广泛应用于数据管道构建、ETL流程自动化、机器学习工作流编排等场景,帮助用户高效管理和执行复杂的任务流程。
625 次收藏10亿+ 次下载
13 天前更新
bitnamicharts/kafka logo
bitnamicharts/kafka
bitnamicharts
Bitnami为Apache Kafka提供的Helm Chart是一款预配置的Kubernetes包管理工具,旨在简化分布式流处理平台Apache Kafka在Kubernetes集群中的部署、配置与全生命周期运维管理,集成了高可用性集群设置、安全认证机制、Prometheus监控指标及自动伸缩策略等核心功能,帮助用户无需手动处理复杂的集群参数配置,即可快速搭建稳定、可扩展且符合生产级标准的Kafka服务,适用于从开发测试到大规模生产环境的各类场景。
5 次收藏1000万+ 次下载
7 个月前更新

轩辕镜像配置手册

探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式

Docker 配置

登录仓库拉取

通过 Docker 登录认证访问私有仓库

专属域名拉取

无需登录使用专属域名

K8s Containerd

Kubernetes 集群配置 Containerd

K3s

K3s 轻量级 Kubernetes 镜像加速

Dev Containers

VS Code Dev Containers 配置

Podman

Podman 容器引擎配置

Singularity/Apptainer

HPC 科学计算容器配置

其他仓库配置

ghcr、Quay、nvcr 等镜像仓库

Harbor 镜像源配置

Harbor Proxy Repository 对接专属域名

Portainer 镜像源配置

Portainer Registries 加速拉取

Nexus 镜像源配置

Nexus3 Docker Proxy 内网缓存

系统配置

Linux

在 Linux 系统配置镜像服务

Windows/Mac

在 Docker Desktop 配置镜像

MacOS OrbStack

MacOS OrbStack 容器配置

Docker Compose

Docker Compose 项目配置

NAS 设备

群晖

Synology 群晖 NAS 配置

飞牛

飞牛 fnOS 系统配置镜像

绿联

绿联 NAS 系统配置镜像

威联通

QNAP 威联通 NAS 配置

极空间

极空间 NAS 系统配置服务

网络设备

爱快路由

爱快 iKuai 路由系统配置

宝塔面板

在宝塔面板一键配置镜像

需要其他帮助?请查看我们的 常见问题Docker 镜像访问常见问题解答 或 提交工单

镜像拉取常见问题

使用与功能问题

配置了专属域名后,docker search 为什么会报错?

docker search 限制

Docker Hub 上有的镜像,为什么在轩辕镜像网站搜不到?

站内搜不到镜像

机器不能直连外网时,怎么用 docker save / load 迁镜像?

离线 save/load

docker pull 拉插件报错(plugin v1+json)怎么办?

插件要用 plugin install

WSL 里 Docker 拉镜像特别慢,怎么排查和优化?

WSL 拉取慢

轩辕镜像安全吗?如何用 digest 校验镜像没被篡改?

安全与 digest

第一次用轩辕镜像拉 Docker 镜像,要怎么登录和配置?

新手拉取配置

错误码与失败问题

docker pull 提示 manifest unknown 怎么办?

manifest unknown

docker pull 提示 no matching manifest 怎么办?

no matching manifest(架构)

镜像已拉取完成,却提示 invalid tar header 或 failed to register layer 怎么办?

invalid tar header(解压)

Docker pull 时 HTTPS / TLS 证书验证失败怎么办?

TLS 证书失败

Docker pull 时 DNS 解析超时或连不上仓库怎么办?

DNS 超时

Docker 拉取出现 410 Gone 怎么办?

410 Gone 排查

出现 402 或「流量用尽」提示怎么办?

402 与流量用尽

Docker 拉取提示 UNAUTHORIZED(401)怎么办?

401 认证失败

遇到 429 Too Many Requests(请求太频繁)怎么办?

429 限流

docker login 提示 Cannot autolaunch D-Bus,还算登录成功吗?

D-Bus 凭证提示

为什么会出现「单层超过 20GB」或 413,无法加速拉取?

413 与超大单层

账号 / 计费 / 权限

轩辕镜像免费版和专业版有什么区别?

免费版与专业版区别

轩辕镜像支持哪些 Docker 镜像仓库?

支持的镜像仓库

镜像拉取失败还会不会扣流量?

失败是否计费

麒麟 V10 / 统信 UOS 提示 KYSEC 权限不够怎么办?

KYSEC 拦截脚本

如何在轩辕镜像申请开具发票?

申请开票

怎么修改轩辕镜像的网站登录和仓库登录密码?

修改登录密码

如何注销轩辕镜像账户?要注意什么?

注销账户

配置与原理类

写了 registry-mirrors,为什么还是走官方或仍然报错?

mirrors 不生效

怎么用 docker tag 去掉镜像名里的轩辕域名前缀?

去掉域名前缀

如何拉取指定 CPU 架构的镜像(如 ARM64、AMD64)?

指定架构拉取

用轩辕镜像拉镜像时快时慢,常见原因有哪些?

拉取速度原因

查看全部问题→

用户好评

来自真实用户的反馈,见证轩辕镜像的优质服务

用户头像

oldzhang

运维工程师

Linux服务器

5

"Docker访问体验非常流畅,大镜像也能快速完成下载。"

轩辕镜像
镜像详情
...
cricketeerone/apache-kafka-connect
博客公告Docker 镜像公告与技术博客
热门镜像查看热门 Docker 镜像推荐
一键安装一键安装 Docker 并配置镜像源
镜像拉取问题咨询请 提交工单,官方技术交流群:1072982923。轩辕镜像所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
镜像拉取问题咨询请提交工单,官方技术交流群:。轩辕镜像所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
商务合作:点击复制邮箱
©2024-2026 源码跳动
商务合作:点击复制邮箱Copyright © 2024-2026 杭州源码跳动科技有限公司. All rights reserved.