我有一个 Spark 作业,它从 s3 存储桶读取文件,格式化它们,然后将它们放入另一个 s3 存储桶中。我正在使用(SparkSession)spark.read.csv和spark.write.csv功能来完成此任务
当我读取文件时,我需要使用一个 IAM 角色(代入角色),而当我写入文件时,需要删除代入角色并恢复为我的默认角色。
这在同一个 Spark 会话中可能吗?如果没有,还有其他方法可以做到这一点吗?
感谢任何和所有的帮助!
amazon-s3 apache-spark pyspark assume-role
amazon-s3 ×1
apache-spark ×1
assume-role ×1
pyspark ×1