有5000万个文件,存储在一台ubuntu电脑上,我想把这5000万合并成几个大文件,怎么最快?目前我已经filename.txt通过ls -1命令保存了要处理的文件名
我尝试编写一个读取文件的 go 程序,然后将输出读取到文件中,但我发现它太慢了。实际阅读速度合并30-40个文件1s左右,16天以上才能读完。
有什么快速合并的好方法吗?
执行输出:
start:2022-07-22 05:03:09
file names = ***
out dir = ***
read 9057/50803783(0.02%), file=0/48151629, speed=40/s time 3m41s
观察系统读写:read: 4 M/s ~ 9 M/s
我也试过用awkandcat命令,效果和go差不多。
head ~/filename.txt -n 10000 | xargs awk '1' >> ~/out/0
sed -i '1,10000d' ~/filename.txt
杨__羊羊
桃花长相依
随时随地看视频慕课网APP
相关分类