我有一个火花流应用程序,它可以生成每分钟的数据集.我需要保存/覆盖已处理数据的结果.
当我试图覆盖数据集org.apache.hadoop.mapred.FileAlreadyExistsException时停止执行.
我设置了Spark属性set("spark.files.overwrite","true"),但没有运气.
set("spark.files.overwrite","true")
如何覆盖或预先删除spark中的文件?
apache-spark
apache-spark ×1