本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com
这是spark官方镜像的amd64架构构建的"每架构"仓库 -- 更多信息,请参见官方镜像文档中的"除amd64之外的架构?"和官方镜像FAQ中的"Git中的镜像源已更改,现在该怎么办?"。
Apache Spark
Apache Spark™社区
4.0.0-scala2.13-java21-python3-ubuntu, 4.0.0-java21-python3, 4.0.0-java21, python3, latest4.0.0-scala2.13-java21-r-ubuntu, 4.0.0-java21-r4.0.0-scala2.13-java21-ubuntu, 4.0.0-java21-scala4.0.0-scala2.13-java21-python3-r-ubuntu4.0.0-scala2.13-java17-python3-ubuntu, 4.0.0-python3, 4.0.0, python3-java174.0.0-scala2.13-java17-r-ubuntu, 4.0.0-r, r4.0.0-scala2.13-java17-ubuntu, 4.0.0-scala, scala4.0.0-scala2.13-java17-python3-r-ubuntu3.5.7-scala2.12-java17-python3-ubuntu, 3.5.7-java17-python3, 3.5.7-java173.5.7-scala2.12-java17-r-ubuntu, 3.5.7-java17-r3.5.7-scala2.12-java17-ubuntu, 3.5.7-java17-scala3.5.7-scala2.12-java17-python3-r-ubuntu3.5.7-scala2.12-java11-python3-ubuntu, 3.5.7-python3, 3.5.73.5.7-scala2.12-java11-r-ubuntu, 3.5.7-r3.5.7-scala2.12-java11-ubuntu, 3.5.7-scala3.5.7-scala2.12-java11-python3-r-ubuntu[***]
(更多信息) amd64, arm64v8
repo-info仓库的repos/spark/目录 (历史记录)(镜像元数据、传输大小等)
official-images仓库的library/spark标签
official-images仓库的library/spark文件 (历史记录)
docs仓库的spark/目录 (历史记录)
Apache Spark™是一个多语言引擎,用于在单节点机器或集群上执行数据工程、数据科学和机器学***。它提供Scala、Java、Python和R的高级API,以及支持数据分析通用计算图的优化引擎。它还支持丰富的高级工具包括Spark SQL(用于SQL和DataFrames)、pandas API on Spark(用于pandas工作负载)、MLlib(用于机器学***)、GraphX(用于图处理)和Structured Streaming(用于流处理)。
!logo
您可以在项目网页上找到最新的Spark文档,包括编程指南。本README仅包含基本设置说明。
开始使用Spark的最简单方法是通过Scala shell:
docker run -it amd64/spark /opt/spark/bin/spark-shell
尝试以下命令,应返回1,000,000,000:
scala> spark.range(1000 * 1000 * 1000).count()
开始使用PySpark的最简单方法是通过Python shell:
docker run -it amd64/spark:python3 /opt/spark/bin/pyspark
运行以下命令,也应返回1,000,000,000:
>>> spark.range(1000 * 1000 * 1000).count()
开始在Spark上使用R的最简单方法是通过R shell:
docker run -it amd64/spark:r /opt/spark/bin/sparkR
docker run -d -p 8080:8080 --name spark-standalone amd64/spark /opt/spark/bin/spark-class org.apache.spark.deploy.master.Master
version: '3' services: spark-master: image: amd64/spark command: bin/spark-class org.apache.spark.deploy.master.Master ports: - "7077:7077" - "8080:8080" environment: - SPARK_MASTER_HOST=spark-master - SPARK_MASTER_PORT=7077 spark-worker: image: amd64/spark command: bin/spark-class org.apache.spark.deploy.worker.Worker spark://spark-master:7077 depends_on: - spark-master environment: - SPARK_WORKER_CORES=2 - SPARK_WORKER_MEMORY=2g deploy: replicas: 2
启动集群:docker-compose up -d
[***]
详见[***]
Apache Spark、Spark、Apache、Apache feather徽标和Apache Spark项目徽标是Apache软件基金会的商标。
根据Apache许可证2.0版授权。
与所有Docker镜像一样,这些镜像可能包含其他受其他许可证约束的软件(如基础发行版的Bash等及主要软件的依赖项)。
部分自动检测的许可证信息可在repo-info仓库的spark/目录中找到。
镜像用户有责任确保对镜像的使用符合其中所有软件的相关许可证。


免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。
免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。
当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。
通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。
先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。
使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤
在 Linux 系统上配置轩辕镜像源,支持主流发行版
在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统
在 Docker Compose 中使用轩辕镜像加速,支持容器编排
在 k8s 中配置 containerd 使用轩辕镜像加速
在宝塔面板中配置轩辕镜像加速,提升服务器管理效率
在 Synology 群晖NAS系统中配置轩辕镜像加速
在飞牛fnOS系统中配置轩辕镜像加速
在极空间NAS中配置轩辕镜像加速
在爱快ikuai系统中配置轩辕镜像加速
在绿联NAS系统中配置轩辕镜像加速
在威联通NAS系统中配置轩辕镜像加速
在 Podman 中配置轩辕镜像加速,支持多系统
配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤
无需登录即可使用轩辕镜像加速服务,更加便捷高效
需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429