
amd64/spark这是spark官方镜像的amd64架构构建的"每架构"仓库 -- 更多信息,请参见官方镜像文档中的"除amd64之外的架构?"和官方镜像FAQ中的"Git中的镜像源已更改,现在该怎么办?"。
Apache Spark
Apache Spark™社区
4.0.0-scala2.13-java21-python3-ubuntu, 4.0.0-java21-python3, 4.0.0-java21, python3, latest4.0.0-scala2.13-java21-r-ubuntu, 4.0.0-java21-r4.0.0-scala2.13-java21-ubuntu, 4.0.0-java21-scala4.0.0-scala2.13-java21-python3-r-ubuntu4.0.0-scala2.13-java17-python3-ubuntu, 4.0.0-python3, 4.0.0, python3-java174.0.0-scala2.13-java17-r-ubuntu, 4.0.0-r, r4.0.0-scala2.13-java17-ubuntu, 4.0.0-scala, scala4.0.0-scala2.13-java17-python3-r-ubuntu3.5.7-scala2.12-java17-python3-ubuntu, 3.5.7-java17-python3, 3.5.7-java173.5.7-scala2.12-java17-r-ubuntu, 3.5.7-java17-r3.5.7-scala2.12-java17-ubuntu, 3.5.7-java17-scala3.5.7-scala2.12-java17-python3-r-ubuntu3.5.7-scala2.12-java11-python3-ubuntu, 3.5.7-python3, 3.5.73.5.7-scala2.12-java11-r-ubuntu, 3.5.7-r3.5.7-scala2.12-java11-ubuntu, 3.5.7-scala3.5.7-scala2.12-java11-python3-r-ubuntu[***]
(更多信息) amd64, arm64v8
repo-info仓库的repos/spark/目录 (历史记录)(镜像元数据、传输大小等)
official-images仓库的library/spark标签
official-images仓库的library/spark文件 (历史记录)
docs仓库的spark/目录 (历史记录)
Apache Spark™是一个多语言引擎,用于在单节点机器或集群上执行数据工程、数据科学和机器学习。它提供Scala、Java、Python和R的高级API,以及支持数据分析通用计算图的优化引擎。它还支持丰富的高级工具包括Spark SQL(用于SQL和DataFrames)、pandas API on Spark(用于pandas工作负载)、MLlib(用于机器学习)、GraphX(用于图处理)和Structured Streaming(用于流处理)。
!logo
您可以在项目网页上找到最新的Spark文档,包括编程指南。本README仅包含基本设置说明。
开始使用Spark的最简单方法是通过Scala shell:
consoledocker run -it amd64/spark /opt/spark/bin/spark-shell
尝试以下命令,应返回1,000,000,000:
scalascala> spark.range(1000 * 1000 * 1000).count()
开始使用PySpark的最简单方法是通过Python shell:
consoledocker run -it amd64/spark:python3 /opt/spark/bin/pyspark
运行以下命令,也应返回1,000,000,000:
python>>> spark.range(1000 * 1000 * 1000).count()
开始在Spark上使用R的最简单方法是通过R shell:
consoledocker run -it amd64/spark:r /opt/spark/bin/sparkR
consoledocker run -d -p 8080:8080 --name spark-standalone amd64/spark /opt/spark/bin/spark-class org.apache.spark.deploy.master.Master
yamlversion: '3' services: spark-master: image: amd64/spark command: bin/spark-class org.apache.spark.deploy.master.Master ports: - "7077:7077" - "8080:8080" environment: - SPARK_MASTER_HOST=spark-master - SPARK_MASTER_PORT=7077 spark-worker: image: amd64/spark command: bin/spark-class org.apache.spark.deploy.worker.Worker spark://spark-master:7077 depends_on: - spark-master environment: - SPARK_WORKER_CORES=2 - SPARK_WORKER_MEMORY=2g deploy: replicas: 2
启动集群:docker-compose up -d
[***]
详见[***]
Apache Spark、Spark、Apache、Apache feather徽标和Apache Spark项目徽标是Apache软件基金会的商标。
根据Apache许可证2.0版授权。
与所有Docker镜像一样,这些镜像可能包含其他受其他许可证约束的软件(如基础发行版的Bash等及主要软件的依赖项)。
部分自动检测的许可证信息可在repo-info仓库的spark/目录中找到。
镜像用户有责任确保对镜像的使用符合其中所有软件的相关许可证。


manifest unknown 错误
TLS 证书验证失败
DNS 解析超时
410 错误:版本过低
402 错误:流量耗尽
身份认证失败错误
429 限流错误
凭证保存错误
来自真实用户的反馈,见证轩辕镜像的优质服务