我们如何覆盖分区数据集,但只覆盖我们要更改的分区?例如,重新计算上周的日常工作,并且只覆盖上周的数据.
默认的Spark行为是覆盖整个表,即使只写一些分区.
hive apache-spark apache-spark-dataset
apache-spark ×1
apache-spark-dataset ×1
hive ×1