我正在使用 Heroku 制作一个网页,每天从其他页面抓取一些内容,然后在页面上显示。我遇到的问题是,在运行每日Clock.py文件时,会执行抓取过程,但根本没有存储新的 CSV 文件。你觉得是什么原因呢?
为了提供更多信息,scraper 函数打开一个网页,抓取一些内容并返回一个 Pandas 数据帧。我现在想要实现的是将此数据框存储到data/名称为 的文件夹中df_result2.csv。简短说明:抓取过程完美无缺,因为我可以在每次运行后将数据帧打印到控制台。唯一的问题来自存储这个文件。你有什么建议我应该改变吗?
#clock.py
from apscheduler.schedulers.blocking import BlockingScheduler
import datetime
import pandas as pd
from components import scraper
sched = BlockingScheduler()
#Example for a job
@sched.scheduled_job('interval', minutes=3)
def timed_job():
print('This job is run every 3 minutes.')
result = scraper()
pd.DataFrame.to_csv(result, "data/df_result2.csv")
print(result)
GCT1015
相关分类