在Scrapy中,可以通过定义一个列表来存储多个start_urls,并使用for循环来遍历这些URL。具体步骤如下:
start_urls = [
'http://www.example.com/page1',
'http://www.example.com/page2',
'http://www.example.com/page3',
]
def start_requests(self):
for url in self.start_urls:
yield scrapy.Request(url=url, callback=self.parse)
def parse(self, response):
# 在这里编写解析响应的代码
pass
通过以上步骤,Scrapy会自动循环遍历start_urls中的URL,并发送请求,然后将响应传递给parse方法进行处理。这样就实现了在Scrapy中循环遍历多个start_urls的功能。
推荐的腾讯云相关产品:腾讯云服务器(CVM)和腾讯云容器服务(TKE)。
领取专属 10元无门槛券
手把手带您无忧上云