因此,我正在编写一个由 DynamoDB Streams 中的事件触发的 Lambda 函数,并且我想将这些事件写入 S3(以创建数据湖)。但此代码仅上传相同的 json 文件。如何将多个文件上传到 s3 而不覆盖这个文件?
import boto3
import json
s3 = boto3.client('s3')
def lambda_handler(event, context):
bucket ='bto-history'
dynamodb = boto3.resource('dynamodb')
tableUsers = dynamodb.Table('Users')
jsonToUpload = event['Records']
uploadFile = bytes(json.dumps(jsonToUpload).encode('UTF-8'))
jsonToUpload = "userUpdate" + ".json"
s3.put_object(Bucket=bucket, Key=jsonToUpload, Body=uploadFile)
return {
'statusCode': 200,
'body': event
}
慕桂英3389331
湖上湖
相关分类