小编A7m*_*med的帖子

如何指定要使用的spark-submit的Python版本?

我有两个版本的Python.当我使用spark-submit启动spark应用程序时,应用程序使用默认版本的Python.但是,我想使用另一个.如何指定要使用的spark-submit的Python版本?

python apache-spark

24
推荐指数
3
解决办法
2万
查看次数

pyspark:如何检查hdfs中是否存在文件

我想在通过SparkContext加载之前检查hdfs中是否存在多个文件.我用pyspark.我试过, os.system("hadoop fs -test -e %s" %path) 但由于我有很多路要检查,工作崩溃了.我也试过sc.wholeTextFiles(parent_path),然后按键过滤.但它崩溃也是因为parent_path包含很多子路径和文件.你可以帮帮我吗?

filesystems hadoop hdfs apache-spark pyspark

8
推荐指数
1
解决办法
8572
查看次数

标签 统计

apache-spark ×2

filesystems ×1

hadoop ×1

hdfs ×1

pyspark ×1

python ×1