我有一个小的 Python 脚本,它运行一个 Lambda 作业,以便在文件上传后立即将文件从不受限制的 s3 存储桶移动到受限制的 s3 存储桶。最初的目标是 50GB 文件,现在是 500GB 文件(或更大)的目标。Lambda 容器在 15 分钟时停止,我只能在 Lambda 超时结束前传输大约 100GB。
s3_resource = boto3.resource('s3') #for s3 delete function
... other stuff ...
s3_resource.meta.client.copy(Bucket=target_bucket, Key=key, CopySource=copy_source, ExtraArgs={'ServerSideEncryption':'AES256'})
#boto3 manual states s3_resource.meta.client.copy "is a managed transfer which will perform a multipart copy in multiple threads if necessary."
我环顾四周,发现的选择是:
使用 ECS 容器运行作业,由 s3 事件和 lambda 触发
使用 Step Functions 为持续时间超过 15 分钟的分段上传生成循环
我还没有使用以太服务。ECS 与 Step Function 的优缺点是什么?我可以调整他们的其他方式(代码或设置)以获得更高的文件传输限制。
更新 1 系统详细信息。
“公共”存储桶与 SFTP 服务一起使用。这将取代 Linux 机器上的 SFTP 服务器。当一个文件被发送给我时,Lambda 会检查它在内部需要放置的位置。当我使一个文件可供下载时,该文件所在目录的 lambda 会将其放置在正确的 SFTP 目录中。在给定窗口之后存储桶策略存档文件,除非再次需要,否则不允许下载它们。目标是发送给我的文件不会保留在公开/SFTP 公开的存储桶中。当文件被发布以供下载时,它们只存在一段设定的时间。虽然我的内部存储桶保留并使用文件。即使有 SFTP 访问控制层,我也希望外部暴露的存储桶大部分是空的。
更新 1 Step Function multipart upload example found
我找到了一个示例,其中包含一些分段上传的代码片段(顺序 [a, then b, then c...] 和并行部分 [a, b, and c, and then ...] )。它看起来确实像很多会话 ID 管理。不同的是,我不想在长时间不看之后在 6 个月内解决问题。
精慕HU
幕布斯6054654
相关分类