专属域名
文档搜索
轩辕助手
Run助手
邀请有礼
返回顶部
快速返回页面顶部
收起
收起工具栏
轩辕镜像 官方专业版
轩辕镜像
专业版
轩辕镜像 官方专业版
轩辕镜像
专业版
首页个人中心搜索镜像

交易
充值流量我的订单
工具
提交工单镜像收录一键安装
Npm 源Pip 源Homebrew 源
帮助
常见问题轩辕镜像免费版
其他
关于我们网站地图
热门搜索:
beam_flink1.9_job_server

apache/beam_flink1.9_job_server

Apache 软件基金会镜像

基于Apache Beam统一数据处理模型和Flink 1.9框架的作业服务器,用于管理和运行批处理与流处理作业。

2 次收藏下载次数: 0状态:社区镜像维护者:Apache 软件基金会镜像仓库类型:镜像最近更新:5 年前
轩辕镜像,快一点,稳很多。点击查看
中文简介
标签下载
镜像标签列表与下载命令
轩辕镜像,快一点,稳很多。点击查看

Apache Beam 镜像文档

1. 镜像概述

Apache Beam 是一个统一的编程模型,用于定义批处理和流处理数据并行处理管道,同时提供一套特定于语言的 SDK 用于构建管道,以及在分布式处理后端(如 Apache Flink、Apache Spark、Google Cloud Dataflow 等)执行管道的运行器(Runners)。本镜像基于 Apache Beam,特别优化了与 Apache Flink 1.9 版本的集成,提供 Job Server 功能,支持在 Flink 1.9 集群上部署和执行 Beam 数据处理管道。

2. 核心功能与特性

2.1 统一数据处理模型

  • 同时支持批处理(Bounded)和流处理(Unbounded)数据场景,提供一致的编程接口。
  • 基于“Dataflow 模型”设计,支持精确的窗口(Windowing)、水印(Watermark)和触发器(Trigger)机制,满足复杂流处理需求。

2.2 多语言 SDK 支持

  • 提供 Java、Python、Go 等多语言 SDK,适配不同开发团队的技术栈。
  • SDK 抽象了底层执行细节,开发者可专注于业务逻辑实现。

2.3 多后端运行器兼容

  • 支持在多种分布式处理引擎上执行管道,包括 Apache Flink、Apache Spark、Google Cloud Dataflow、Hazelcast Jet 等。
  • 本镜像默认集成 Flink 1.9 Runner,优化了与 Flink 1.9 集群的通信和任务调度。

2.4 轻量化与可扩展性

  • 镜像体积精简,适合容器化部署;支持横向扩展 Job Server 实例,提高任务并发处理能力。
  • 支持自定义管道配置,可通过环境变量或配置文件调整运行参数。

3. 使用场景与适用范围

3.1 数据处理管道开发与部署

  • 数据工程师:使用 Beam SDK 编写数据清洗、转换、聚合等管道,通过本镜像部署到 Flink 1.9 集群执行。
  • 场景示例:实时日志处理、用户行为数据分析、ETL 批处理任务。

3.2 跨平台数据处理统一管理

  • 企业内部存在多套处理引擎(如 Flink、Spark)时,通过 Beam 统一编程模型降低开发和维护成本。

3.3 SDK 与运行器扩展开发

  • SDK 开发者:基于 Beam 核心模型扩展新语言 SDK(如 Scala、R)。
  • 运行器开发者:为自定义分布式处理引擎实现 Beam 兼容的运行器。

3.4 本地调试与集群部署无缝衔接

  • 开发阶段使用本地 DirectRunner 调试,生产环境通过本镜像切换至 Flink 1.9 Runner,无需修改业务代码。

4. 使用方法与配置说明

4.1 镜像拉取

bash
docker pull apache/beam-flink1.9-job-server:latest

4.2 Docker 运行示例

4.2.1 本地模式(使用 Flink 嵌入式集群)

适用于开发调试,直接在容器内启动嵌入式 Flink 集群:

bash
docker run -d \
  --name beam-flink-jobserver \
  -p 8099:8099 \  # Job Server 端口
  -e BEAM_PIPELINE_RUNNER=FlinkRunner \
  -e FLINK_MODE=embedded \
  apache/beam-flink1.9-job-server:latest

4.2.2 连接外部 Flink 1.9 集群

生产环境推荐,指定外部 Flink 1.9 集群地址:

bash
docker run -d \
  --name beam-flink-jobserver \
  -p 8099:8099 \
  -e BEAM_PIPELINE_RUNNER=FlinkRunner \
  -e FLINK_MODE=cluster \
  -e FLINK_MASTER_URL=flink-cluster:8081 \  # 外部 Flink 集群 JobManager 地址
  -v /local/jobs:/jobs \  # 挂载本地作业目录
  apache/beam-flink1.9-job-server:latest

4.3 Docker Compose 配置示例

yaml
version: '3'
services:
  beam-jobserver:
    image: apache/beam-flink1.9-job-server:latest
    ports:
      - "8099:8099"
    environment:
      - BEAM_PIPELINE_RUNNER=FlinkRunner
      - FLINK_MODE=cluster
      - FLINK_MASTER_URL=flink-jobmanager:8081
      - JOB_SERVER_PORT=8099
      - LOG_LEVEL=INFO
    volumes:
      - ./jobs:/opt/beam/jobs  # 挂载作业 JAR/Python 脚本目录
    depends_on:
      - flink-jobmanager
      - flink-taskmanager

  flink-jobmanager:
    image: flink:1.9-scala_2.11
    ports:
      - "8081:8081"
    command: jobmanager
    environment:
      - JOB_MANAGER_RPC_ADDRESS=flink-jobmanager

  flink-taskmanager:
    image: flink:1.9-scala_2.11
    depends_on:
      - flink-jobmanager
    command: taskmanager
    environment:
      - JOB_MANAGER_RPC_ADDRESS=flink-jobmanager

4.4 核心配置参数

4.4.1 环境变量配置

环境变量名描述默认值可选值
BEAM_PIPELINE_RUNNER指定管道运行器FlinkRunnerDirectRunner, SparkRunner 等
FLINK_MODEFlink 运行模式clusterembedded(嵌入式), cluster(集群)
FLINK_MASTER_URLFlink 集群 JobManager 地址localhost:8081Flink 集群实际地址
JOB_SERVER_PORTJob Server 监听端口80991-65535 未占用端口
LOG_LEVEL日志级别INFODEBUG, WARN, ERROR
BEAM_JOB_ARGS作业额外参数(JSON 格式){}如 {"input":"hdfs:///data","output":"hdfs:///result"}

4.4.2 命令行参数

启动容器时可通过命令行参数覆盖默认配置,例如:

bash
docker run apache/beam-flink1.9-job-server:latest \
  --port 8099 \
  --flink-master flink-cluster:8081 \
  --log-level DEBUG

5. 核心概念

5.1 Beam 模型核心组件

Beam 模型定义了数据处理管道的核心抽象,确保跨场景和后端的一致性:

  • PCollection:表示数据集合,可分为有界(批处理)或无界(流处理),是管道中数据的逻辑容器。
  • PTransform:表示数据转换操作(如过滤、映射、聚合),接收一个或多个 PCollection 作为输入,输出新的 PCollection。
  • Pipeline:管理 PTransform 和 PCollection 构成的有向无环图(DAG),是数据处理逻辑的完整表示。
  • PipelineRunner:负责将 Pipeline 转换为具体后端(如 Flink)的执行计划,并在目标集群上调度执行。

6. SDK 支持

本镜像兼容以下 Apache Beam SDK 版本:

  • Java SDK:支持 Beam 2.10+ 版本,需使用 beam-sdks-java-core 依赖。
  • Python SDK:支持 Beam 2.10+ 版本,需安装 apache-beam[flink] 包。
  • Go SDK:支持 Beam 2.15+ 版本,需使用 github.com/apache/beam/sdks/v2/go 库。

注:不同 SDK 编写的管道需通过对应语言的提交工具提交至 Job Server(如 Java 作业通过 beam-runner-flink-job-server 提交,Python 作业通过 beam-cli 提交)。

7. 运行器(Runners)支持

Beam 支持在多种分布式引擎上执行管道,本镜像默认集成以下运行器:

7.1 核心运行器

  • DirectRunner:本地单机运行,适用于开发调试,无需集群环境。
  • FlinkRunner:针对 Apache Flink 集群优化,本镜像默认启用,支持 Flink 1.9.x 集群,支持批处理和流处理模式。
  • SparkRunner:支持 Apache Spark 2.4+ 集群,需通过环境变量 BEAM_PIPELINE_RUNNER=SparkRunner 切换。
  • DataflowRunner:提交至 Google Cloud Dataflow 服务,需配置 GCP 认证信息。

7.2 FlinkRunner 特性

  • 支持 Flink 1.9 集群的 Checkpoint 和 Savepoint 机制,保证流处理作业的容错性。
  • 自动适配 Flink 集群资源,动态调整并行度。
  • 支持 Flink 原生状态后端(如 RocksDB),优化大状态流处理性能。

8. 入门指南

8.1 快速开始

  1. 编写管道:使用 Java/Python/Go SDK 编写简单管道(如单词计数),示例代码可参考 Apache Beam 官方 Quickstart。
  2. 构建作业包:Java 作业打包为 JAR 文件,Python 作业保留 .py 脚本。
  3. 提交作业:通过 Job Server REST API 或 CLI 提交作业,例如:
    bash
    # Java 作业提交示例(需安装 beam-cli)
    beam submit \
      --job-server=localhost:8099 \
      --runner=FlinkRunner \
      ./wordcount.jar \
      --input=hdfs:///input.txt \
      --output=hdfs:///output
    

8.2 调试与监控

  • Job Server 日志:通过 docker logs beam-flink-jobserver 查看作业提交和执行日志。
  • Flink 监控:访问 Flink 集群 UI(默认 http://flink-jobmanager:8081)查看作业执行状态、Checkpoint 指标等。

9. 联系与支持

  • 用户邮件列表:订阅 ***,获取使用问题解答。
  • 开发者邮件列表:订阅 ***,参与功能讨论和代码贡献。
  • Issue 跟踪:通过 Apache Beam JIRA 提交 Bug 或功能需求。
  • 官方文档:更多详情参见 Apache Beam 官方网站。

镜像拉取方式

您可以使用以下命令拉取该镜像。请将 <标签> 替换为具体的标签版本。如需查看所有可用标签版本,请访问 标签列表页面。

轩辕镜像加速拉取命令点我查看更多 beam_flink1.9_job_server 镜像标签

docker pull docker.xuanyuan.run/apache/beam_flink1.9_job_server:<标签>

使用方法:

  • 登录认证方式
  • 免认证方式

DockerHub 原生拉取命令

docker pull apache/beam_flink1.9_job_server:<标签>

更多 beam_flink1.9_job_server 镜像推荐

apache/airflow logo

apache/airflow

Apache 软件基金会镜像
Apache Airflow是一个开源的工作流编排平台,旨在通过编程方式(主要使用Python)定义、调度和监控复杂工作流,它以有向无环图(DAG)形式管理任务依赖关系,支持灵活的调度策略(如基于时间、事件或依赖),提供直观的Web界面用于任务状态监控与管理,具备高度可扩展性,可集成多种数据处理工具、云服务及外部系统,广泛应用于数据管道构建、ETL流程自动化、机器学习工作流编排等场景,帮助用户高效管理和执行复杂的任务流程。
626 次收藏10亿+ 次下载
6 天前更新
apache/superset logo

apache/superset

Apache 软件基金会镜像
Apache Superset是一款开源的数据可视化与数据探索平台,它支持连接多种数据源,允许用户通过直观界面创建交互式仪表盘、图表及报告,无需复杂编程即可进行数据查询与分析,适用于从非技术人员到数据工程师的各类用户,帮助团队高效洞察数据价值,是企业级数据驱动决策的强大工具。
322 次收藏5亿+ 次下载
7 天前更新
apache/tika logo

apache/tika

Apache 软件基金会镜像
Apache Tika Server的容器镜像,提供内容检测、元数据及文本提取的HTTP服务,便于便捷部署和集成到应用系统中。
54 次收藏1000万+ 次下载
1 个月前更新
apache/kafka logo

apache/kafka

Apache 软件基金会镜像
Apache Kafka是一个开源的分布式流处理平台,旨在提供高吞吐量、低延迟的实时数据流传递服务,支持发布/订阅消息模式,能够持久化存储海量数据流并确保数据可靠性,具备水平扩展能力和容错机制,广泛应用于日志收集、事件驱动架构、实时数据集成及流处理系统等场景,为企业级应用提供高效、稳定的数据流传输与处理解决方案。
206 次收藏1000万+ 次下载
10 天前更新
apache/spark logo

apache/spark

Apache 软件基金会镜像
Apache Spark是由Apache软件基金会开发的开源分布式计算系统,专为大数据处理设计,支持批处理、流处理、机器学习和图计算等多种数据处理模式,通过基于内存的计算引擎显著提升处理速度,具备高效、易用且可扩展的特性,广泛应用于数据科学与大数据分析领域,为用户提供快速、灵活的大数据处理解决方案。
98 次收藏1000万+ 次下载
2 个月前更新
apache/apisix logo

apache/apisix

Apache 软件基金会镜像
Apache APISIX是一款动态、实时、高性能的云原生API网关,提供负载均衡、动态上游、金丝雀发布、熔断、认证、可观测性等丰富流量管理功能,适用于处理传统南北向流量及服务间东西向流量。
103 次收藏1000万+ 次下载
7 天前更新

查看更多 beam_flink1.9_job_server 相关镜像

轩辕镜像配置手册

探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式

Docker 配置

登录仓库拉取

通过 Docker 登录认证访问私有仓库

专属域名拉取

无需登录使用专属域名

K8s Containerd

Kubernetes 集群配置 Containerd

K3s

K3s 轻量级 Kubernetes 镜像加速

Dev Containers

VS Code Dev Containers 配置

Podman

Podman 容器引擎配置

Singularity/Apptainer

HPC 科学计算容器配置

其他仓库配置

ghcr、Quay、nvcr 等镜像仓库

Harbor 镜像源配置

Harbor Proxy Repository 对接专属域名

Portainer 镜像源配置

Portainer Registries 加速拉取

Nexus 镜像源配置

Nexus3 Docker Proxy 内网缓存

系统配置

Linux

在 Linux 系统配置镜像服务

Windows/Mac

在 Docker Desktop 配置镜像

MacOS OrbStack

MacOS OrbStack 容器配置

Docker Compose

Docker Compose 项目配置

NAS 设备

群晖

Synology 群晖 NAS 配置

飞牛

飞牛 fnOS 系统配置镜像

绿联

绿联 NAS 系统配置镜像

威联通

QNAP 威联通 NAS 配置

极空间

极空间 NAS 系统配置服务

网络设备

爱快路由

爱快 iKuai 路由系统配置

宝塔面板

在宝塔面板一键配置镜像

需要其他帮助?请查看我们的 常见问题Docker 镜像访问常见问题解答 或 提交工单

镜像拉取常见问题

使用与功能问题

配置了专属域名后,docker search 为什么会报错?

docker search 限制

Docker Hub 上有的镜像,为什么在轩辕镜像网站搜不到?

站内搜不到镜像

机器不能直连外网时,怎么用 docker save / load 迁镜像?

离线 save/load

docker pull 拉插件报错(plugin v1+json)怎么办?

插件要用 plugin install

WSL 里 Docker 拉镜像特别慢,怎么排查和优化?

WSL 拉取慢

轩辕镜像安全吗?如何用 digest 校验镜像没被篡改?

安全与 digest

第一次用轩辕镜像拉 Docker 镜像,要怎么登录和配置?

新手拉取配置

轩辕镜像合规吗?轩辕镜像的合规是怎么做的?

镜像合规机制

错误码与失败问题

docker pull 提示 manifest unknown 怎么办?

manifest unknown

docker pull 提示 no matching manifest 怎么办?

no matching manifest(架构)

镜像已拉取完成,却提示 invalid tar header 或 failed to register layer 怎么办?

invalid tar header(解压)

Docker pull 时 HTTPS / TLS 证书验证失败怎么办?

TLS 证书失败

Docker pull 时 DNS 解析超时或连不上仓库怎么办?

DNS 超时

docker 无法连接轩辕镜像域名怎么办?

域名连通性排查

Docker 拉取出现 410 Gone 怎么办?

410 Gone 排查

出现 402 或「流量用尽」提示怎么办?

402 与流量用尽

Docker 拉取提示 UNAUTHORIZED(401)怎么办?

401 认证失败

遇到 429 Too Many Requests(请求太频繁)怎么办?

429 限流

docker login 提示 Cannot autolaunch D-Bus,还算登录成功吗?

D-Bus 凭证提示

为什么会出现「单层超过 20GB」或 413,无法加速拉取?

413 与超大单层

账号 / 计费 / 权限

轩辕镜像免费版和专业版有什么区别?

免费版与专业版区别

轩辕镜像支持哪些 Docker 镜像仓库?

支持的镜像仓库

镜像拉取失败还会不会扣流量?

失败是否计费

麒麟 V10 / 统信 UOS 提示 KYSEC 权限不够怎么办?

KYSEC 拦截脚本

如何在轩辕镜像申请开具发票?

申请开票

怎么修改轩辕镜像的网站登录和仓库登录密码?

修改登录密码

如何注销轩辕镜像账户?要注意什么?

注销账户

配置与原理类

写了 registry-mirrors,为什么还是走官方或仍然报错?

mirrors 不生效

怎么用 docker tag 去掉镜像名里的轩辕域名前缀?

去掉域名前缀

如何拉取指定 CPU 架构的镜像(如 ARM64、AMD64)?

指定架构拉取

用轩辕镜像拉镜像时快时慢,常见原因有哪些?

拉取速度原因

查看全部问题→

用户好评

来自真实用户的反馈,见证轩辕镜像的优质服务

用户头像

oldzhang

运维工程师

Linux服务器

5

"Docker访问体验非常流畅,大镜像也能快速完成下载。"

轩辕镜像
Apache 软件基金会镜像
...
apache/beam_flink1.9_job_server
博客Docker 镜像公告与技术博客
热门查看热门 Docker 镜像推荐
安装一键安装 Docker 并配置镜像源
镜像拉取问题咨询请 提交工单,官方技术交流群:1072982923。轩辕镜像所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
镜像拉取问题咨询请提交工单,官方技术交流群:。轩辕镜像所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
商务合作:点击复制邮箱
©2024-2026 源码跳动
商务合作:点击复制邮箱Copyright © 2024-2026 杭州源码跳动科技有限公司. All rights reserved.