婷婷同学_
假设您的数据相当对称,最性能友好的选项就是简单地array_chunk()将数组切割成块,当json_encoded 时,这些块将大约是预期的大小。让我们看一下数组中的样本:string(58) "{"category":"1795","email":null,"level":1,"name":"BARFOO"}"这里的“名称”似乎是唯一可能变化更大的一个。我们将其平均为 12 个字符,每个项目的字符串长度为 64 字节。然后,您可以将其中的 78125 个放入 5MB 中。为了将其保持在标记之下,我们将其设置为 75000。然后,$chunks = array_chunk($data, 75000)将为您提供 X 个大约或略低于 5MB 标记的块。现在,如果您想要更精确,并且尺寸确实很重要......我们可以:$size = 0; // size counter$chunkno = 1; // chunk number$maxbytes = 50000; // 50000-byte chunks$chunks = []; // for array chunksforeach($data as $set) { // if over the limit, move on to next chunk if ($size > $maxbytes) { $size = 0; $chunkno++; } $size += strlen(json_encode($set)) + 1; // add a comma's length! $chunks[$chunkno][] = $set;}// unset($data); // in case you have memory concerns显然,我们在这里使用 json_encode 执行双重任务,但块大小不会受到源数据差异的影响。我针对 50000 字节的块运行了上面的测试脚本,您需要将其5000000用于您的用例。我生成的虚拟数据最多分为整齐的 50K 块。+/- 一组的大小,加上最后一个文件中的剩余部分。在思考这个问题时,我也考虑过这样做strlen(implode(,但考虑到 PHP 的总体性能很好json_encode,为了获得精确的 JSON 字符串大小而进行权衡,不应该有太多的损失。无论如何,一旦块准备好了,我们需要做的就是把它们写下来:foreach($chunks as $n => $chunk) { $json = json_encode($chunk); file_put_contents("tmp/chunk_{$n}.json", $json);}...或者匹配您的块命名和目录架构。也许有更聪明的方法可以做到这一点。也就是说,据我所知,核心 PHP 中没有任何内容可以开箱即用地执行此类操作(即使对于普通数组也是如此),并且上述操作应该执行得相当好。请记住有足够的可用内存。:)PS 在计算大小时,我们为每个项目添加 +1,代表{},{},{},或对象分隔符。严格来说,您还需要在总计中添加 +2,因为它将是[{},{},{}],而我们只将每个数组项的长度作为单独的 JSON 对象进行计算。对于其他数据结构,您的补偿里程可能会有所不同。优化更新:如果您选择“精确大小”方法并希望优化内存使用,最好将 JSON 提交集成到分块循环中。(感谢@NigelRen的建议。)如下(其他初始变量如前):$chunk = [];foreach($data as $n => $set) { if ($size > $maxbytes) { file_put_contents("tmp/chunk_{$chunkno}.json", json_encode($chunk)); $chunk = []; $chunkno++; $size = 0; } $size += strlen(json_encode($set)) + 1; $chunk[] = $set; // unset($data[$n]); // in case of memory issues, see notes}如果您对影响感到好奇。通过这种方法,内存使用量达到(已用,最大)1.06 MB、29.34 MB。使用单独的写入例程,26.29 MB、31.8 MB。两个数字都包括unset($data)调用、取消初始数组并释放内存。CPU 方面,两个选项之间没有显着差异。人们还可以$data在每次添加到 后清除数组的成员$chunk[],但是在 5MB 块大小下,这里的内存优势可以忽略不计。初始数组本身的加载/定义是昂贵的,是最大内存使用量的主要因素。(在任何处理开始之前,我使用的测试数组占用了 29.25 MB。)
PIPIONE
请尝试以下解决方法:<?php $array = array ( 0 => array ( 'category' => '179535', 'email' => NULL, 'level' => 1, 'name' => 'FOO' ), 1 => array ( 'category' => '1795', 'email' => NULL, 'level' => 1, 'name' => 'BARFOO' ), 2 => array ( 'category' => '16985', 'email' => NULL, 'level' => 1, 'name' => 'FOOBAR' ) ); $len = sizeof($array); $fileNameIndex = 1; for($i=0;$i<$len;$i++) { $fileName = 'file'.$fileNameIndex.'.json'; $fileExist = file_exists($fileName); $fileSize = 0; $mode ='w'; $current = null; if($fileExist) { $fileSize = fileSize($fileName); $current = json_decode(file_get_contents($fileName), true); } if($fileExist && $fileSize < 5242880) { WriteToFile($fileNameIndex, $current, $array[$i], $i); } else if(!$fileExist) { WriteToFile($fileNameIndex, $current, $array[$i], $i); } else { $fileNameIndex ++; WriteToFile($fileNameIndex, $current, $array[$i], $i); } } function WriteToFile($fileNameIndex, $current, $data, $i) { $fileName = 'file'.$fileNameIndex.'.json'; $mode ='w'; echo "$i index array is being written in $fileName. <br/>"; $fileNameIndex ++; $fp = fopen($fileName, $mode); if($current) { array_push($current, $data); } else { $current = []; array_push($current, $data); } fwrite($fp, json_encode($current)); fclose($fp); }?>