需要把大量的json文件,读取并重新解析导入到elasticsearch,json文件是保存在不同的日期文件夹下的,单个文件夹大小差不多80g,文件下json文件数量没实际算过但应该有 1w+
开个线程池,然后多线程读取不同的json文件,json里的数据是 数组的形式 [data1, data2, data3, data4,...],我这边解析这个 json 文件 ,然后遍历 每个 data,并把 data 解析成需要的 json 格式并导入elasticsearch,通过 elasticsearch 的批量导入处理,每一千条导入一次
想加入类似断点续传的功能,就是当我程序运行到一半断了,我不需要从头开始,而是从上次断开的地方重新读取导入,但没有实现头绪,我是用Java做的
侃侃无极
繁星coding
忽然笑
随时随地看视频慕课网APP
相关分类