ays*_*ysh 5 python amazon-s3 amazon-web-services aws-lambda
我有 3 个桶1.commonfolder 2.jsonfolder 3.csvfolder。
通用文件夹将同时包含 json 和 csv 文件
需要将所有 csv 文件复制到 csvfolder
需要将所有json文件复制到json文件夹
代码如下,用于从之后commonfolder如何复制中获取所有文件
import boto3
s3 = boto3.client('s3')
def lambda_handler(event, context):
#List all the bucket names
response = s3.list_buckets()
for bucket in response['Buckets']:
print (bucket)
print(f'{bucket["Name"]}')
#Get the files of particular bucket
if bucket["Name"] == 'tests3json':
resp = s3.list_objects_v2(Bucket='commonfolder')
for obj in resp['Contents']:
files = obj['Key']
print(files)
if(filename.split('.')[1].lower()=='json'):
copyjson(bucket,filename)
#copyjson(jsonfolder,filename)
elif(filename.split('.')[1].lower()=='csv'):
copycsv(bucket, filename)
#copycsv(csvfolder,filename)
Run Code Online (Sandbox Code Playgroud)
需要创建一个新函数 copyjson,copycsv 来完成这项工作
需要根据文件扩展名从 common-bucket 复制到 csv-bucket 或 json-bucket
您可以检查以下代码:
import boto3
s3 = boto3.resource('s3')
def lambda_handler(event, context):
source_bucket = s3.Bucket('01-commonfolder-231')
json_bucket = s3.Bucket('02-jsonfolder-3435')
csv_bucket = s3.Bucket('03-csvfolder-4552')
for object in source_bucket.objects.all():
#print(object)
if object.key.endswith('.json'):
print(f"{object.key} to json bucket")
copy_object = json_bucket.Object(object.key)
copy_object.copy({'Bucket': object.bucket_name,
'Key': object.key})
elif object.key.endswith('.csv'):
print(f"{object.key} to csv bucket")
copy_object = csv_bucket.Object(object.key)
copy_object.copy({'Bucket': object.bucket_name,
'Key': object.key})
Run Code Online (Sandbox Code Playgroud)
我使用我自己的带有测试文件的示例存储桶对此进行了测试:
aaa.json to json bucket
bbbbb.csv to csv bucket
bbbbb.json to json bucket
hhhh.csv to csv bucket
Run Code Online (Sandbox Code Playgroud)
| 归档时间: |
|
| 查看次数: |
194 次 |
| 最近记录: |