我试图理解Spark如何在引擎盖下改变依赖关系.因此我有两个问题:
在Spark中,执行者如何知道从其他执行器获取数据?
在具有随机播放依赖性的作业中,只有在所有地图侧任务完成后,驱动程序计划才会加入(或其他任务与shuffle依赖关系)?
apache-spark
apache-spark ×1