用Python读取大文件的懒惰方法?

用Python读取大文件的懒惰方法?

我有一个非常大的文件4GB,当我试图读取它时,我的计算机挂起。所以我想一片地阅读它,在处理完每一段之后,将处理后的部分存储到另一个文件中,然后读取下一段。

有什么方法yield这些碎片?

我想要一个懒惰法.


呼唤远方
浏览 876回答 3
3回答

泛舟湖上清波郎朗

readline()接受一个可选的size参数,它近似于返回的行中读取的行数。bigfile = open('bigfilename','r')tmp_lines = bigfile.readlines(BUF_SIZE)while tmp_lines:     process([line for line in tmp_lines])     tmp_lines = bigfile.readlines(BUF_SIZE)
打开App,查看更多内容
随时随地看视频慕课网APP