给定 S3 中的一个大gzip对象,python3/boto3 中的内存高效(例如流式传输)方法是什么来解压缩数据并将结果存储回另一个 S3 对象?
之前也有人问过类似的问题。然而,所有答案都使用一种方法,其中首先将 gzip 文件的内容读入内存(例如ByteIO)。这些解决方案对于太大而无法放入主内存的对象来说是不可行的。
对于大型 S3 对象,需要读取内容,“即时”解压缩,然后以某种分块方式写入不同的 S3 对象。
预先感谢您的考虑和回复。
弑天下
跃然一笑
随时随地看视频慕课网APP
相关分类