我在Scrapy中有一个爬虫,我想检查瓶颈。我还有几个类提供给主要的Spider类。'w') as f : p.sort_stats('calls').print_stats() 其中QuotesSpider(scrapy.Spider)是爬行器类。可以理解的是,当使用scrapy crawl quotes运行
我试图用Scrapy从网站中提取json数据,但我遇到了一些问题,比如当我运行我的爬行器时,没有给出错误,并且说爬行了0个页面。我还使用该命令将de输出存储到json文件中,以查看输出。(self.url % i, callback=self.parse)import scrapy
price = s