本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com
arm64v8/spark 是针对ARM64架构优化的Apache Spark官方Docker镜像,基于spark官方镜像的arm64v8架构构建版本。Apache Spark是一个统一的大数据分析引擎,支持大规模数据处理、数据科学和机器学***任务,提供多语言API(Scala、Java、Python、R)及分布式计算能力。该镜像适用于在ARM64架构环境中快速部署和运行Spark应用,简化大数据处理流程。
spark-shell、pyspark、sparkR),便于实时数据分析和调试| 标签 | 对应的Dockerfile链接 |
|---|---|
4.0.0-scala2.13-java21-python3-ubuntu, 4.0.0-java21-python3, 4.0.0-java21, python3, latest | Dockerfile |
4.0.0-scala2.13-java21-r-ubuntu, 4.0.0-java21-r | Dockerfile |
4.0.0-scala2.13-java21-ubuntu, 4.0.0-java21-scala | Dockerfile |
4.0.0-scala2.13-java21-python3-r-ubuntu | Dockerfile |
4.0.0-scala2.13-java17-python3-ubuntu, 4.0.0-python3, 4.0.0, python3-java17 | Dockerfile |
4.0.0-scala2.13-java17-r-ubuntu, 4.0.0-r, r | Dockerfile |
4.0.0-scala2.13-java17-ubuntu, 4.0.0-scala, scala | Dockerfile |
4.0.0-scala2.13-java17-python3-r-ubuntu | Dockerfile |
3.5.7-scala2.12-java17-python3-ubuntu, 3.5.7-java17-python3, 3.5.7-java17 | Dockerfile |
3.5.7-scala2.12-java17-r-ubuntu, 3.5.7-java17-r | Dockerfile |
3.5.7-scala2.12-java17-ubuntu, 3.5.7-java17-scala | Dockerfile |
3.5.7-scala2.12-java17-python3-r-ubuntu | Dockerfile |
3.5.7-scala2.12-java11-python3-ubuntu, 3.5.7-python3, 3.5.7 | Dockerfile |
3.5.7-scala2.12-java11-r-ubuntu, 3.5.7-r | Dockerfile |
3.5.7-scala2.12-java11-ubuntu, 3.5.7-scala | Dockerfile |
3.5.7-scala2.12-java11-python3-r-ubuntu | Dockerfile |
通过Scala Shell快速开始Spark交互:
docker run -it arm64v8/spark /opt/spark/bin/spark-shell
示例命令(返回1,000,000,000):
scala> spark.range(1000 * 1000 * 1000).count()
使用Python Shell需指定python3标签:
docker run -it arm64v8/spark:python3 /opt/spark/bin/pyspark
示例命令:
>>> spark.range(1000 * 1000 * 1000).count()
使用R Shell需指定r标签:
docker run -it arm64v8/spark:r /opt/spark/bin/sparkR
启动Spark Master节点:
docker run -d \ --name spark-master \ -p 7077:7077 \ -p 8080:8080 \ arm64v8/spark \ /opt/spark/bin/spark-class org.apache.spark.deploy.master.Master
启动Spark Worker节点(连接到Master):
docker run -d \ --name spark-worker \ --link spark-master:master \ arm64v8/spark \ /opt/spark/bin/spark-class org.apache.spark.deploy.worker.Worker spark://master:7077
创建docker-compose.yml:
version: '3' services: master: image: arm64v8/spark container_name: spark-master ports: - "7077:7077" # Master节点端口 - "8080:8080" # Web UI端口 command: /opt/spark/bin/spark-class org.apache.spark.deploy.master.Master worker: image: arm64v8/spark container_name: spark-worker depends_on: - master environment: - SPARK_MASTER=spark://master:7077 command: /opt/spark/bin/spark-class org.apache.spark.deploy.worker.Worker ${SPARK_MASTER}
启动集群:
docker-compose up -d
Spark支持在Kubernetes上部署,详细文档参见官方指南。
镜像支持通过环境变量自定义Spark配置,常见配置项及说明参见Apache Spark Docker镜像文档。关键环境变量包括:
SPARK_HOME:Spark安装路径(默认/opt/spark)SPARK_MASTER:Master节点地址(如spark://master:7077)SPARK_WORKER_CORES:Worker节点可用CPU核心数SPARK_WORKER_MEMORY:Worker节点可用内存(如4g)Apache Spark及其Docker镜像基于Apache License 2.0许可。镜像可能包含其他软件(如基础系统工具),其许可需由用户自行确认合规性。
更多许可信息参见repo-info仓库的spark目录。


免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。
免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。
当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。
通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。
先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。
使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤
在 Linux 系统上配置轩辕镜像源,支持主流发行版
在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统
在 Docker Compose 中使用轩辕镜像加速,支持容器编排
在 k8s 中配置 containerd 使用轩辕镜像加速
在宝塔面板中配置轩辕镜像加速,提升服务器管理效率
在 Synology 群晖NAS系统中配置轩辕镜像加速
在飞牛fnOS系统中配置轩辕镜像加速
在极空间NAS中配置轩辕镜像加速
在爱快ikuai系统中配置轩辕镜像加速
在绿联NAS系统中配置轩辕镜像加速
在威联通NAS系统中配置轩辕镜像加速
在 Podman 中配置轩辕镜像加速,支持多系统
配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤
无需登录即可使用轩辕镜像加速服务,更加便捷高效
需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429