使用 AWS Glue 将 write_dynamic_frame_from_options 的 ACL 权限写入 S3

pyh*_*hot 3 amazon-s3 amazon-web-services python-3.x pyspark aws-glue

如何在尝试使用write_dynamic_frame_from_options. 当我尝试转换数据并将 csv 文件放入另一个 AWS 帐户 S3 存储桶时,我给出了这行代码

glueContext.write_dynamic_frame.from_options(frame = DATA_temp, connection_type = "s3", connection_options = {"path": "s3://{BUCKETNAME}/{FOLDER1}/#0001"}, format = "csv")
Run Code Online (Sandbox Code Playgroud)

我的过程成功完成,但我无法下载或打开该帐户中的文件??

Ema*_*man 8

这将解决问题

glueContext._jsc.hadoopConfiguration().set("fs.s3.canned.acl", "BucketOwnerFullControl")
Run Code Online (Sandbox Code Playgroud)

Scala版本如下:

glueContext.sparkContext.hadoopConfiguration.set("fs.s3.canned.acl", "BucketOwnerFullControl")
Run Code Online (Sandbox Code Playgroud)