腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
Scrapy
CrawlSpider
不会
退出
、
、
、
、
我对
scrapy
Crawlspider
有一个问题:基本上,如果引发了CloseSpider异常,它
不会
像它应该做的那样
退出
。代码如下:from
scrapy
.exceptions import CloseSpiderimport re class Recursiv
浏览 6
提问于2018-08-03
得票数 2
回答已采纳
1
回答
Python:为什么
scrapy
不打印或不执行任何操作?
、
、
我刚接触
scrapy
,不能让它做任何事情。最终,我想通过以下内部链接从一个网站上抓取所有的html评论。 现在,我只是尝试抓取内部链接,并将它们添加到列表中。import
scrapy
from
scrapy
.linkextractors import LinkExtractorclass comment_spider(
CrawlSpider
): name = 'test&
浏览 34
提问于2019-03-20
得票数 0
回答已采纳
1
回答
使用
Scrapy
时出现奇怪的错误
、
、
下面是我使用的代码:from
scrapy
.contrib.spiders import Rule url =
scrapy
.Field() $
scrapy
craw
浏览 1
提问于2014-12-26
得票数 0
回答已采纳
1
回答
Scrapy
Crawler多个域在检索源页面后没有错误地完成
、
尝试让
Scrapy
抓取多个域。我让它工作了很短时间,但有些东西改变了,我不知道是什么。我的理解是,带有规则的"
CrawlSpider
“应该遵循任何允许的链接,直到深度设置或域名耗尽。import
scrapy
from
scrapy
.linkextractors import LinkExtractorclass BbcSpider(
CrawlSpider
): n
浏览 29
提问于2018-06-03
得票数 1
回答已采纳
1
回答
用下一页抓取。规则语法
、
我正在尝试使用
scrapy
进行递归的web抓取。我想去'‘,并通过下面的按钮,从这个网站获得所有的产品名称和价格。我能够创建这个蜘蛛(它正常工作):from
scrapy
.linkextractors import LinkExtractorfrom
scrapy
.spiders import
CrawlSpider
, Rule class DmozSpider(
scrapy
.Sp
浏览 2
提问于2016-02-10
得票数 1
回答已采纳
1
回答
刮伤
CrawlSpider
不爬行
、
、
、
、
为此,我使用
CrawlSpider
,最终的结果将是获取所有这些数据,并按模型名称将其放入mongoDB文档中。显然,我还没有完成,也还没有达到这一点。我现在拥有的是:import
scrapy
from
scrapy
.item import Item name
浏览 3
提问于2014-11-04
得票数 0
1
回答
未找到刮伤的
CrawlSpider
属性
、
使用
Scrapy
1.4.0和我在网上找到的修改过的模板,我得到了以下错误: import
scrapy
from
scrapy
.linkextractors import LinkExtractor classTechcrunchSpider(
scrapy<
浏览 2
提问于2017-07-31
得票数 0
回答已采纳
1
回答
刮擦蜘蛛不遵循链接和错误
、
、
、
import
scrapy
from wikiCrawler.items import WikicrawlerItemfrom
scrapy
.spiders import Rule name = "wikiSpyder"parse"),
浏览 2
提问于2017-03-29
得票数 2
回答已采纳
1
回答
Scrapy
:将索引中的每个链接下载为完整html文件的尝试失败
、
、
我的spider.py代码如下:import urlparsefrom
scrapy
.spidersimport
CrawlSpider
, Rule name = 'easy' allowed_domains = ['
浏览 4
提问于2017-09-13
得票数 0
回答已采纳
3
回答
在
Scrapy
中爬行通过身份验证的会话
、
在我的中,我对我的问题不太明确(用
Scrapy
的认证会话进行抓取),希望能够从更一般的答案中推断出解决方案。我可能宁愿使用crawling这个词。到目前为止,这是我的代码: name = 'myspider' allowed_domains = ['domain.com'](验证,然后爬行,使用
CrawlSpider
)任何帮助都将不胜感激。
浏览 6
提问于2011-05-01
得票数 33
回答已采纳
2
回答
刮擦的剧作家:使用刮擦的剧作家执行
CrawlSpider
、
、
是否可以使用剧作家对
Scrapy
的集成执行
CrawlSpider
?我正在尝试下面的脚本来执行一个
CrawlSpider
,但是它
不会
刮任何东西。它也不显示任何错误!import
scrapy
from
scrapy
.spiders import
CrawlSpider
,Rule class GumtreeCrawlSpider(
CrawlSpide
浏览 18
提问于2022-03-13
得票数 -1
回答已采纳
1
回答
解析回调没有定义--简单的Webscraper (
Scrapy
)仍然没有运行
、
、
import
scrapy
from bs4 import BeautifulSoupfrom
scrapy
.spiders import
CrawlSpider
, Rule from
scrapy
.linkextractors import LinkExtractor] INFO:
Scrapy
1.7.4 starte
浏览 2
提问于2019-11-18
得票数 2
回答已采纳
1
回答
无法在
Scrapy
中使用用户名和密码的API
、
、
、
、
from=1000000&to=SGD&amount=AED,AUD,BDT&inverse=True File "d:\kerja\hit\python~1\<project_name>\&
浏览 19
提问于2017-03-16
得票数 1
回答已采纳
1
回答
刮伤LinkExtractor不起作用
埃里克from
scrapy
.contrib.spiders import
CrawlSpider
, Rule# from
scrapy
.contrib.linkextractors.lxmlhtml import LxmlLinkExtractor class YTSpider(
scrap
浏览 1
提问于2015-05-01
得票数 2
回答已采纳
1
回答
scrapy
python
CrawlSpider
不爬行
、
、
import
scrapy
from
scrapy
.linkextractors importLinkExtractor name = 'genericSpider' ),
浏览 11
提问于2019-04-24
得票数 0
1
回答
爬行蜘蛛:蜘蛛错误处理引发NotImpmentedError
、
Items.py# define the fields for your item here like:title =
scrapy
.Field()file_urls =
scrapy
.Field()import
scrapy
from
scrapy
.spiders import
浏览 2
提问于2016-06-03
得票数 1
回答已采纳
2
回答
scrapy
版本0.22.1的多页抓取- "cannot import name
CrawlSpider
“错误是什么意思?
、
、
我正在尝试编写一个爬虫来跨多个页面爬行,通过以下网址:我正在使用
Scrapy
版本0.22.1来做这件事。但是,我收到一条"cannot import name
CrawlSpider
“消息。from
scrapy
.spider import
CrawlSpider
, Rulefrom
浏览 0
提问于2015-02-14
得票数 1
2
回答
Scrapy
反转url Python中的参数顺序
、
、
、
办公室名册地址如下所示: --但是
Scrapy
爬行,这是一个死页面。 .aspx后的两个部分被交换。代码示例: allowed_domains
浏览 4
提问于2015-04-21
得票数 0
回答已采纳
2
回答
如何修复错误"ModuleNotFoundError:没有名为‘
scrapy
.contrib’的模块“
、
当我试图运行我的项目时,我在
scrapy
控制台中得到了错误ModuleNotFoundError: No module named '
scrapy
.contrib'。我注意到python linter在下面划线:这似乎是错误发生在那里。
浏览 1
提问于2021-06-04
得票数 0
1
回答
CrawlSpider
无法解析
Scrapy
中的多页
、
我创建的
CrawlSpider
没有正确地完成它的工作。它解析第一页,然后停止,而不继续到下一页。有些事我做错了但没能察觉到。希望外面的人给我一个提示,我该怎么做才能纠正它。"items.py“包括:class CraigslistScraperItem(Item): Link = Field()from
scrapy
.cont
浏览 4
提问于2017-04-04
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
爬虫CrawlSpider原理
初识爬虫类CrawlSpider
Scrapy网络爬虫框架实际案例讲解,Python爬虫原来如此简单!
金宝贝品牌方:不会退出中国市场
python爬虫系列(三)scrapy基本概念
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券