其思想是,使用修改后的launchPupperteer函数和不同的proxyUrl创建一个新的爬虫,并对失败的页面进行重新排队。请检查下面的示例代码。但不幸的是,它不起作用,尽管我使用drop和reopening重置请求队列。是否可以通过将PuppeteerCrawler与不同的proxyUrl一起使用来重新生成失败的页面?for(let failedUrl of failedUrls){
a
我正在尝试从一个网站获取产品数据,该网站在用户向下滚动时加载产品列表。我使用Apify来做这件事。我的第一个想法是看看是否有人已经解决了这个问题,我找到了两个有用的链接:How to make the Apify Crawler to scroll full page when web page have但是,当我尝试应用他们提到的函数时,我的Apify爬虫无法加载内容。 我使用的是一个基于基本web-scraper