问题描述:
使用php开发的采集国外网站的数据,以便进行测试,数据保存为txt格式,存放在服务器上,当需要访问的时候,在使用php读取txt中的数据,并返回到用户。
当服务器运行一段时间以后,通过网址访问服务器上的资源时,打开速度挺卡的,刚开始的时候还不会。
注:
网址跟之前网站的是一样的,只是把顶级域名缓存我们自己的。
数据是触发采集的,第一次会远程采集数据到本地,并返回给用户,第二次才从本地读取。
问题:
1.即使数据量超多的时候,也能做到秒开呢
2.瓶颈在哪?内存还是IO
3.使用一段时间以后,打开速度会很卡,重启服务器后会好多了
4.如果将数据保存到MySQL数据库的时候,应该会更卡吧,目前是纯文本,只是访问的时候,在通过一个简单的路径匹配算法,使用php去读取文件,并返回给用户
5.有没有相关书籍可以学习下?
6.将PHP版本升级到php7,是否可以缓解?
斯蒂芬大帝
心有法竹
30秒到达战场
蓝山帝景
慕婉清6462132