pyh*_*hot 3 amazon-s3 amazon-web-services python-3.x pyspark aws-glue
如何在尝试使用write_dynamic_frame_from_options. 当我尝试转换数据并将 csv 文件放入另一个 AWS 帐户 S3 存储桶时,我给出了这行代码
glueContext.write_dynamic_frame.from_options(frame = DATA_temp, connection_type = "s3", connection_options = {"path": "s3://{BUCKETNAME}/{FOLDER1}/#0001"}, format = "csv")
Run Code Online (Sandbox Code Playgroud)
我的过程成功完成,但我无法下载或打开该帐户中的文件??
这将解决问题
glueContext._jsc.hadoopConfiguration().set("fs.s3.canned.acl", "BucketOwnerFullControl")
Run Code Online (Sandbox Code Playgroud)
Scala版本如下:
glueContext.sparkContext.hadoopConfiguration.set("fs.s3.canned.acl", "BucketOwnerFullControl")
Run Code Online (Sandbox Code Playgroud)
| 归档时间: |
|
| 查看次数: |
1063 次 |
| 最近记录: |