猿问

PHP 每小时百万级的curl请求服务器 丢失数据

直接详细说明下场景:
服务器A会通过curl将数据转发到服务器B上,服务器A每小时转发量在百万级。curl请求的是服务器B上的一个0字节的文件,只要把请求记录在服务器B的nginx日志里就可以了。
现在通过两边的数据比对,发现数据一天会丢几千条,一小时会丢一两百条。
服务器A用curl_errno(),甚至加了curl_getinfo()判断返回的是否是200都没有记录到curl报错
这部分丢失的curl请求,想请教大家有什么好的分析思路跟经验可以借鉴的。
补充:服务器间用的内网dns解析,排除了dns解析超时的故障
求大神们支招了
猛跑小猪
浏览 338回答 2
2回答

慕神8447489

合并请求是个好的思路,并发处理过多的话,不仅是B服务器,A服务器也不见得能按照期望去处理。或者也可以使用队列来处理,每秒并发可以控制一个量级下去请求B服务器。
随时随地看视频慕课网APP

相关分类

JavaScript
我要回答