apache/spark-rApache Spark™是一个多语言引擎,用于在单节点机器或集群上执行数据工程、数据科学和机器学习任务。本镜像专注于提供R语言支持,允许用户通过Spark的R API(SparkR)进行大数据处理和分析,是在Spark环境中使用R语言的便捷容器化解决方案。
最新的Spark文档(包括编程指南)可在项目网页获取。本文档仅包含基本设置说明。
使用R on Spark最简单的方式是通过R Shell:
bashdocker run -it apache/spark-r /opt/spark/bin/sparkR
有关在Kubernetes上运行Spark的详细说明,请参见官方文档。

manifest unknown 错误
TLS 证书验证失败
DNS 解析超时
410 错误:版本过低
402 错误:流量耗尽
身份认证失败错误
429 限流错误
凭证保存错误
来自真实用户的反馈,见证轩辕镜像的优质服务