我已经使用scrapy在python中编写了一个脚本,以便在向某个网址发出发布请求后从响应中获取链接。当我尝试使用以下脚本时,链接完全通过。
工作一:
import scrapy
from scrapy.crawler import CrawlerProcess
class AftnetSpider(scrapy.Spider):
name = "aftnet"
base_url = "http://www.aftnet.be/MyAFT/Clubs/SearchClubs"
def start_requests(self):
yield scrapy.FormRequest(self.base_url,callback=self.parse,formdata={'regions':'1,3,4,6'})
def parse(self,response):
for items in response.css("dl.club-item"):
for item in items.css("dd a[data-toggle='popover']::attr('data-url')").getall():
yield {"result_url":response.urljoin(item)}
if __name__ == "__main__":
c = CrawlerProcess({
'USER_AGENT': 'Mozilla/5.0',
})
c.crawl(AftnetSpider)
c.start()
但是,我的意图是使用列表理解来实现相同的目的,但我遇到了一些错误。
使用列表理解:
def parse(self,response):
return [response.urljoin(item) for items in response.css("dl.club-item") for item in items.css("dd a[data-toggle='popover']::attr('data-url')").getall()]
我收到以下错误:
2019-03-08 12:45:44 [scrapy.core.scraper] ERROR: Spider must return Request, BaseItem, dict or None, got 'str' in <POST http://www.aftnet.be/MyAFT/Clubs/SearchClubs>
如何使用scrapy中的列表理解来获取一些链接?
海绵宝宝撒
相关分类