专属域名
文档搜索
轩辕助手
Run助手
邀请有礼
返回顶部
快速返回页面顶部
收起
收起工具栏

apache/beam_java17_sdk Docker 镜像 - 轩辕镜像

镜像简介

Apache Beam Java 17 SDK镜像,用于构建和运行批处理与流处理数据管道,支持跨多种执行引擎(如Spark、Flink)运行,提供Java 17环境及Beam核心库,适合Java开发者快速开发分布式数据处理应用。

镜像统计信息

下载次数: 168991

状态: active

发布者: apache

类型: 镜像

beam_java17_sdk
apache/beam_java17_sdk
Apache Beam Java 17 SDK镜像,用于构建和运行批处理与流处理数据管道,支持跨多种执行引擎(如Spark、Flink)运行,提供Java 17环境及Beam核心库,适合Java开发者快速开发分布式数据处理应用。
0 次下载activeapache镜像
🚀专业版镜像服务,面向生产环境设计
版本下载
🚀专业版镜像服务,面向生产环境设计

Apache Beam Java 17 SDK 镜像文档

1. 镜像概述

Apache Beam Java 17 SDK镜像是基于Java 17环境构建的官方Apache Beam开发运行环境,集成了Beam Java SDK核心组件与依赖库。该镜像旨在为Java开发者提供统一的批处理与流处理数据管道开发、测试和运行平台,支持跨多种执行引擎(如DirectRunner、SparkRunner、FlinkRunner)无缝运行,简化分布式数据处理应用的开发与部署流程。

2. 核心功能与特性

  • Java 17运行时环境:基于OpenJDK 17构建,支持Java 17语法特性及增强功能
  • Beam SDK集成:包含最新稳定版Beam Java SDK,提供完整的管道构建API(如Pipeline、PCollection、Transform)
  • 多执行引擎兼容:原生支持DirectRunner(本地测试)、SparkRunner、FlinkRunner、DataflowRunner等多种执行引擎
  • 数据I/O组件:内置常用数据源/目标连接器(如文件系统、Kafka、Pub/Sub、JDBC)
  • 轻量级部署:精简基础镜像,优化容器体积,支持快速启动与资源高效利用

3. 使用场景

  • 批处理任务:日志数据清洗与分析、ETL数据转换、历史数据批量处理
  • 流处理应用:实时监控数据流、事件驱动型数据处理、实时指标计算
  • 跨引擎迁移:统一批流处理逻辑,实现从本地测试到分布式集群(Spark/Flink)的无缝迁移
  • Java 17环境适配:需使用Java 17特性(如密封类、模式匹配)开发的Beam应用

4. 使用方法与配置说明

4.1 基本使用(Docker Run)
4.1.1 拉取镜像
bash
docker pull apache/beam-java17-sdk:latest
4.1.2 交互式开发环境

挂载本地Beam项目代码至容器,进行开发与调试:

bash
docker run -it --rm -v /path/to/your/beam-project:/app apache/beam-java17-sdk:latest /bin/bash
4.1.3 直接执行管道

在容器内运行编译后的Beam应用JAR包:

bash
# 示例:使用DirectRunner本地执行批处理管道
java -cp /app/target/your-pipeline.jar com.example.YourPipeline --runner=DirectRunner
4.2 环境变量配置

镜像支持通过环境变量自定义运行参数,常用配置如下:

环境变量描述默认值
BEAM_RUNNER默认执行引擎(可选值:DirectRunner/SparkRunner/FlinkRunner等)DirectRunner
JAVA_OPTSJVM启动参数(如内存配置、系统属性)-Xmx512m
BEAM_SDK_VERSIONBeam SDK版本号(用于验证依赖兼容性)镜像内置版本
PIPELINE_ARGS管道默认参数(如输入路径、输出路径)空

示例:指定使用SparkRunner并配置JVM内存

bash
docker run -it --rm \
  -e BEAM_RUNNER=SparkRunner \
  -e JAVA_OPTS="-Xmx2g -XX:+UseG1GC" \
  -v /path/to/project:/app \
  apache/beam-java17-sdk:latest \
  java -cp /app/target/pipeline.jar com.example.SparkPipeline --spark-master=spark://spark-cluster:7077
4.3 Docker Compose配置示例

对于依赖外部服务(如Kafka、数据库)的复杂管道,可通过docker-compose.yml管理多容器协同:

yaml
version: '3.8'
services:
  beam-pipeline:
    image: apache/beam-java17-sdk:latest
    volumes:
      - ./your-beam-project:/app
    environment:
      - BEAM_RUNNER=FlinkRunner
      - JAVA_OPTS=-Xmx1g
      - PIPELINE_ARGS=--inputTopic=kafka:9092/input --outputTable=jdbc:postgresql://db:5432/results
    depends_on:
      - flink-jobmanager
      - kafka
      - db

  # 依赖服务示例(Flink集群、Kafka、PostgreSQL)
  flink-jobmanager:
    image: flink:1.17-scala_2.12
    command: jobmanager
    environment:
      - JOB_MANAGER_RPC_ADDRESS=flink-jobmanager

  kafka:
    image: confluentinc/cp-kafka:7.3.0
    environment:
      - KAFKA_ADVERTISED_LISTENERS=PLAINTEXT://kafka:9092
      - KAFKA_OFFSETS_TOPIC_REPLICATION_FACTOR=1

  db:
    image: postgres:14
    environment:
      - POSTGRES_DB=beam_results
      - POSTGRES_USER=beam_user
      - POSTGRES_PASSWORD=beam_pass
4.4 执行引擎配置示例
4.4.1 本地测试(DirectRunner)

适用于开发阶段快速验证管道逻辑,无需分布式集群:

bash
docker run -it --rm -v /path/to/project:/app apache/beam-java17-sdk:latest \
  java -cp /app/target/pipeline.jar com.example.TestPipeline \
  --runner=DirectRunner \
  --inputFile=/app/test-data/input.txt \
  --outputFile=/app/test-data/output.txt
4.4.2 Spark集群执行(SparkRunner)

需确保容器可访问Spark集群,配置spark-master地址:

bash
docker run -it --rm -v /path/to/project:/app apache/beam-java17-sdk:latest \
  java -cp /app/target/pipeline.jar com.example.SparkPipeline \
  --runner=SparkRunner \
  --spark-master=spark://spark-master:7077 \
  --spark.app.name=beam-spark-pipeline
4.4.3 Flink集群执行(FlinkRunner)

需提前部署Flink集群,并配置JobManager地址:

bash
docker run -it --rm -v /path/to/project:/app apache/beam-java17-sdk:latest \
  java -cp /app/target/pipeline.jar com.example.FlinkPipeline \
  --runner=FlinkRunner \
  --flink-master=flink-jobmanager:8081 \
  --streaming=true

5. 注意事项

  • 网络配置:运行分布式执行引擎时,需确保容器与目标集群(Spark/Flink)网络互通,可通过--network参数指定Docker网络
  • 资源配置:根据数据规模调整JAVA_OPTS内存参数,避免OOM错误(建议生产环境配置-Xmx4g以上)
  • 依赖管理:项目额外依赖(如特定连接器)需通过Maven/Gradle打包至应用JAR,镜像不包含非核心依赖
  • 版本兼容性:不同Beam版本与执行引擎存在兼容性差异,具体参考Apache Beam官方兼容性矩阵

6. 参考链接

  • Apache Beam官方文档
  • Beam Java SDK API文档
  • Beam执行引擎配置指南

相关 Docker 镜像推荐

以下是 apache/beam_java17_sdk 相关的常用 Docker 镜像,适用于 不同场景 等不同场景:

  • alpine/java Docker 镜像说明(Java 运行时,基于 Alpine Linux,体积小巧)
  • library/java Docker 镜像说明(Java 运行时,官方标准版本,适合通用 Java 应用)
  • chainguard/jdk Docker 镜像说明(JDK 运行时,Chainguard 安全加固版本,适合安全敏感应用)
  • bitnami/java Docker 镜像说明(Java 运行时,Bitnami 企业级配置)
  • ringcentral/jdk Docker 镜像说明

镜像拉取方式

您可以使用以下命令拉取该镜像。请将 <标签> 替换为具体的标签版本。如需查看所有可用标签版本,请访问 版本下载页面。

国内拉取方式

docker pull docker.xuanyuan.run/apache/beam_java17_sdk:<标签>

使用方法:

  • 登录认证方式
  • 免认证方式

官方拉取方式

docker pull apache/beam_java17_sdk:<标签>

相关镜像推荐

apache/airflow logo
apache/airflow
by The Apache Software Foundation
Apache Airflow是一个开源的工作流编排平台,旨在通过编程方式(主要使用Python)定义、调度和监控复杂工作流,它以有向无环图(DAG)形式管理任务依赖关系,支持灵活的调度策略(如基于时间、事件或依赖),提供直观的Web界面用于任务状态监控与管理,具备高度可扩展性,可集成多种数据处理工具、云服务及外部系统,广泛应用于数据管道构建、ETL流程自动化、机器学习工作流编排等场景,帮助用户高效管理和执行复杂的任务流程。
6201B+ pulls
上次更新:3 天前
apache/superset logo
apache/superset
by The Apache Software Foundation
Apache Superset是一款开源的数据可视化与数据探索平台,它支持连接多种数据源,允许用户通过直观界面创建交互式仪表盘、图表及报告,无需复杂编程即可进行数据查询与分析,适用于从非技术人员到数据工程师的各类用户,帮助团队高效洞察数据价值,是企业级数据驱动决策的强大工具。
317500M+ pulls
上次更新:2 天前
apache/tika logo
apache/tika
by The Apache Software Foundation
Apache Tika Server的容器镜像,提供内容检测、元数据及文本提取的HTTP服务,便于便捷部署和集成到应用系统中。
5110M+ pulls
上次更新:3 个月前
apache/apisix logo
apache/apisix
by The Apache Software Foundation
Apache APISIX是一款动态、实时、高性能的云原生API网关,提供负载均衡、动态上游、金丝雀发布、熔断、认证、可观测性等丰富流量管理功能,适用于处理传统南北向流量及服务间东西向流量。
10010M+ pulls
上次更新:3 天前
apache/kafka logo
apache/kafka
by The Apache Software Foundation
Apache Kafka是一个开源的分布式流处理平台,旨在提供高吞吐量、低延迟的实时数据流传递服务,支持发布/订阅消息模式,能够持久化存储海量数据流并确保数据可靠性,具备水平扩展能力和容错机制,广泛应用于日志收集、事件驱动架构、实时数据集成及流处理系统等场景,为企业级应用提供高效、稳定的数据流传输与处理解决方案。
19310M+ pulls
上次更新:1 个月前
apache/skywalking-oap-server logo
apache/skywalking-oap-server
by The Apache Software Foundation
Apache SkyWalking OAP Server是开源分布式可观测性平台Apache SkyWalking的核心组件,负责从代理、服务网格等数据源收集指标、追踪和日志数据,通过分析处理后存储于支持多种数据库的后端,并提供查询接口为UI展示及告警功能提供数据支持,助力用户实时监控分布式系统运行状态、诊断性能瓶颈、保障服务稳定性与可靠性。
16710M+ pulls
上次更新:2 个月前
查看更多 beam_java17_sdk 相关镜像

轩辕镜像配置手册

探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式

登录仓库拉取

通过 Docker 登录认证访问私有仓库

Linux

在 Linux 系统配置镜像服务

Windows/Mac

在 Docker Desktop 配置镜像

Docker Compose

Docker Compose 项目配置

K8s Containerd

Kubernetes 集群配置 Containerd

K3s

K3s 轻量级 Kubernetes 镜像加速

宝塔面板

在宝塔面板一键配置镜像

群晖

Synology 群晖 NAS 配置

飞牛

飞牛 fnOS 系统配置镜像

极空间

极空间 NAS 系统配置服务

爱快路由

爱快 iKuai 路由系统配置

绿联

绿联 NAS 系统配置镜像

威联通

QNAP 威联通 NAS 配置

Podman

Podman 容器引擎配置

Singularity/Apptainer

HPC 科学计算容器配置

其他仓库配置

ghcr、Quay、nvcr 等镜像仓库

专属域名拉取

无需登录使用专属域名

需要其他帮助?请查看我们的 常见问题Docker 镜像访问常见问题解答 或 提交工单

镜像拉取常见问题

轩辕镜像免费版与专业版有什么区别?

免费版仅支持 Docker Hub 访问,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。

轩辕镜像支持哪些镜像仓库?

专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等;免费版仅支持 docker.io。

流量耗尽错误提示

当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。

410 错误问题

通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。

manifest unknown 错误

先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。

镜像拉取成功后,如何去掉轩辕镜像域名前缀?

使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。

查看全部问题→

用户好评

来自真实用户的反馈,见证轩辕镜像的优质服务

oldzhang的头像

oldzhang

运维工程师

Linux服务器

5

"Docker访问体验非常流畅,大镜像也能快速完成下载。"

轩辕镜像
镜像详情
...
apache/beam_java17_sdk
官方博客Docker 镜像使用技巧与技术博客
热门镜像查看热门 Docker 镜像推荐
一键安装一键安装 Docker 并配置镜像源
提交工单
免费获取在线技术支持请 提交工单,官方QQ群:13763429 。
轩辕镜像面向开发者与科研用户,提供开源镜像的搜索和访问支持。所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
免费获取在线技术支持请提交工单,官方QQ群: 。
轩辕镜像面向开发者与科研用户,提供开源镜像的搜索和访问支持。所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
官方邮箱:点击复制邮箱
©2024-2026 源码跳动
官方邮箱:点击复制邮箱Copyright © 2024-2026 杭州源码跳动科技有限公司. All rights reserved.
轩辕镜像 官方专业版 Logo
轩辕镜像轩辕镜像官方专业版
首页个人中心搜索镜像
交易
充值流量我的订单
工具
提交工单镜像收录一键安装
Npm 源Pip 源Homebrew 源
帮助
常见问题
其他
关于我们网站地图

官方QQ群: 13763429