腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
无法访问子实例中的父实例变量
、
我在研究刮伤的
框架
。import
scrapy
import ConfigParser logger = get_logger() def __init__(self, *args, **kwa
浏览 2
提问于2017-06-19
得票数 0
回答已采纳
1
回答
scrapy
添加
scrapy
_
redis
后出现报错?
、
、
、
最近学习
scrapy
框架
,在settings中添加
scrapy
_
redis
参数 # Ensure all spiders share same duplicates filter throughDUPEFILTER_CLASS = "
s
浏览 699
提问于2020-03-05
2
回答
scrapy
程序不会自动关闭。
、
、
、
抓取--
redis
框架
,
redis
存储xxx:请求已经爬行完毕,但程序仍在运行,如何自动停止程序,而不是已经运行?运行代码: 2017-08-07 09:17:06 [
scrapy
.extensions.logstats] INFO: Crawled 0 pages (at 0 pages/min), scraped0 items (at 0 items/min) 2017-08-07 09:18:06 [
scrapy
.extensions.logstats] INFO: C
浏览 4
提问于2017-08-07
得票数 1
回答已采纳
1
回答
scrapy
-
redis
如何将第一个请求实现为post请求
、
我们知道
scrapy
_
redis
可以通过重写start_request函数来实现post请求,那么
scrapy
呢?
浏览 26
提问于2019-03-18
得票数 0
2
回答
为什么
scrapy
-
redis
不起作用?
、
、
、
我从github下载了
scrapy
-
redis
,并按照说明运行它,但它失败了,并给出了这个错误: Traceback (most recent call last): File "/usr/local/lib/python2.7/dist-packages/
Scrapy
-0.16.3-py2.7.egg/
s
浏览 0
提问于2013-01-04
得票数 1
回答已采纳
1
回答
定制BaseSpider刮伤
、
、
通常,刮伤蜘蛛是从
scrapy
.Spider类继承的。我尝试在
scrapy
的蜘蛛文件夹中创建一个BaseSpider类,但是没有工作 def __init=
Redis
(host='
redis
', port=6379)给出这个错误 TypeError: Error when calling=
R
浏览 3
提问于2017-06-17
得票数 0
回答已采纳
1
回答
重新抓取一台机器已经爬行的url
、
、
、
我使用
scrapy
-
redis
.编写了一个分布式蜘蛛SCHEDULER = "
scrapy
_
redis
.scheduler.Scheduler"SCHEDULER_QUEUE_CLASS = '
scrapy
_
redis
.queue.SpiderPri
浏览 1
提问于2016-08-23
得票数 0
回答已采纳
1
回答
scrapy
_
redis
停止我的蜘蛛在x次空闲之后
、
、
、
我有一个
scrapy
_
redis
蜘蛛池,它侦听红色队列(蜘蛛的数量并不总是相同的)。这个队列由另一个脚本提供。我希望我的蜘蛛在没有活动的X分钟后停下来,那时红色的队列里什么都没有了。这是我的settings.pyDUPEFILTER_CLASS = "
scrapy
_
redis
.dupefilter.RFPDupeFilterCrawlera User Agent
浏览 2
提问于2017-04-21
得票数 4
2
回答
Scrapy
-
Redis
中的Dupefilter没有按预期工作。
、
、
我感兴趣的是使用来存储在
Redis
中刮过的物品。特别是,似乎是一个有用的特性。page/1/', ] '
浏览 25
提问于2017-05-04
得票数 1
回答已采纳
1
回答
Scrapy
请求方法的meta是浅拷贝,而请求方法的meta在
scrapy
_
redis
.Why中是深拷贝?
scrapy
:from
scrapy
.spider import Request 输出: L-id: 2769118042568秒这是浅拷贝
scrapy
_
redis
from
scrapy
_
re
浏览 2
提问于2018-08-17
得票数 4
回答已采纳
1
回答
我是否正确地使用
scrapy
-
redis
来抓取大量URL?
我对分布式
scrapy
爬虫是个新手,但是我发现了
scrapy
-
redis
并且一直在使用它。我在一个覆盆子pi上使用它来抓取大量我推送到
redis
的URL。我所做的就是在Pi中创建多个SSH会话,然后运行
scrapy
crawl myspider让爬行器“等待”。然后我启动另一个SSH并执行
redis
-cli lpush "my links“。我真的只是在寻找在实现这个基本版本的
scrapy
-
redis
之后的“下一步”。 编辑:我是从这个答案开
浏览 0
提问于2020-07-31
得票数 0
1
回答
scrapy
Redis
无法连接到AWS
、
、
、
我有两个运行
Scrapy
的Ubuntu EC2实例,它们都使用
scrapy
来控制dupe。我正在尝试使用ElastiCache红宝石作为刮红店。我有完全相同的设置在不同的AWS帐户,它运行良好。两个EC2实例和ElastiCache实例都在同一个VPC中,我遵循这篇文章允许安全组从
Scrapy
实例访问ElastiCache。您可以看到下面的设置:ElastiCache实例位于选定的安全组中;其他两个组是两个
Scrapy
EC2实例。这个问题被隔离到
Scrapy
,因为我可以使用
redis</e
浏览 0
提问于2019-06-01
得票数 0
1
回答
如何从
redis
获得一个正常的url,而不是通过url cPikle转换?
、
、
、
、
我使用
scrapy
简单地构建了一个分布式爬虫,从机器需要读取url形式的主队列url,但是有一个问题是,我到达url从机器是在cPikle转换后的数据,我想从
redis
- url队列中获得url是正确的示例:from
scrapy
.spider import Spider re
浏览 5
提问于2016-03-21
得票数 1
回答已采纳
1
回答
如何让
scrapy
使用两个队列来管理urls?
、
、
、
我想用
scrapy
框架
和
scrapy
-
redis
库做一个有针对性的分布式爬虫。我应该修改哪些
scrapy
模块来满足我的需求?
浏览 14
提问于2018-08-23
得票数 0
1
回答
有没有办法通过脚本改变
scrapy
spider的名字?
、
、
、
我做了一个
scrapy
-
redis
爬虫,并决定做一个分布式爬虫。对于更多,我想让它成为一个基于任务的,一个任务一个名称。因此,我计划将爬行器的名称更改为任务的名称,并使用此名称来区分每个任务。这是我的代码,它是不成熟的:import
redis
from
scrapy
.utils.projectimport get_project_settings from
sc
浏览 0
提问于2017-05-26
得票数 0
2
回答
工作马过程意外终止RQ和
Scrapy
。
、
、
、
我试图从
redis
(rq)中检索一个函数,它生成一个CrawlerProcess,但是我得到了 '
scrapy
_splash.SplashCookiesMiddleware': 723, '
scrapy</em
浏览 1
提问于2017-11-07
得票数 4
回答已采纳
1
回答
将刮伤改为刮红后,启动url头改变。
、
我有一个刮伤项目,我想将它修改为
scrapy
:主要的刮伤文件如下: name = 'ScrapyBot' callback=self.parse}该请求在
Scrapy
中运行良好,但在添加
scrapy
-
redis
部件后,开始请求中的头(从F
浏览 2
提问于2022-03-29
得票数 0
2
回答
scrapy
被
redis
阻塞
、
、
、
我使用一个抓取的爬虫来充当消费者,也有一个生产者来产生urls并不定期地将它们放在
redis
中,我的代码如下: def start_requests(self): for msg in self.
redis
_sub.listenmeta={'pageCount': pageCount, 'id': id, 'dont_redirect': True}) 代码可以正常接收urls,但是当它阻塞在第二行等待urls时,所有的
scrapy
浏览 52
提问于2019-01-23
得票数 0
回答已采纳
1
回答
如何修复:TypeError:无法pickle Selector对象
、
、
not self.slot.scheduler.enqueue_request(request):self.queue.push(request)Fil
浏览 23
提问于2019-01-09
得票数 0
1
回答
抓取:0个项目/分钟
、
我从一个网站上得到了一个
Scrapy
的例子,它可以工作,但似乎有问题:它不能获得所有的内容,我不知道发生了什么。该示例使用
Scrapy
+
Redis
+MongoDB。291 items (at 0 items/min)#-*-coding:utf8-*- from
scrapy
_
redis
.spiders import RedisSpiderAppleWebKit/536.5 (KHTML, like Gecko) Chrome/19.0.1084
浏览 0
提问于2015-10-09
得票数 5
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
scrapy-redis快速上手
scrapy爬虫框架
Scrapy框架的使用之Scrapy入门
Scrapy框架的使用之Scrapy通用爬虫
初识scrapy爬虫框架
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券