Tar*_*eja 2 hadoop amazon-web-services apache-spark aws-glue aws-glue-data-catalog
我将 AWS 与(基本支持计划)一起使用。我想知道 AWS 粘合作业中使用了哪个版本的 Spark 和 Hadoop (HDFS)。这样我就可以在本地机器上设置相同的环境进行开发。
或者,如果我了解 Spark 的版本,则对应 AWS 粘合作业使用的 Hadoop 版本,反之亦然。
因为我正在使用基本支持计划。所以,我不能向支持中心提出案例。知道在哪里可以检查 AWS 胶水作业... Spark 和 Hadoop 版本吗?
任何形式的帮助和建议表示赞赏。谢谢!
如果您使用的是 Spark > 2.0 那么
1.In Pyspark:
获取 Spark 版本:
print("Spark Version:" + spark.version)
Run Code Online (Sandbox Code Playgroud)
在火花 < 2.0 中:
sc.version
Run Code Online (Sandbox Code Playgroud)
获取 Hadoop 版本:
print("Hadoop version: " + sc._gateway.jvm.org.apache.hadoop.util.VersionInfo.getVersion())
Run Code Online (Sandbox Code Playgroud)
2.In Scala:
火花版本:
println ("Spark Version:" + spark.version)
Run Code Online (Sandbox Code Playgroud)
在火花 < 2.0:
sc.version
Run Code Online (Sandbox Code Playgroud)
Hadoop版本:
println("Hadoop version: " + org.apache.hadoop.util.VersionInfo.getVersion())
Run Code Online (Sandbox Code Playgroud)
| 归档时间: |
|
| 查看次数: |
2616 次 |
| 最近记录: |