有没有办法在Spark中获取地图任务的ID?例如,如果每个map任务调用一个用户定义的函数,我是否可以从该用户定义的函数中获取该map任务的ID?
hadoop scala hadoop-yarn apache-spark
apache-spark ×1
hadoop ×1
hadoop-yarn ×1
scala ×1