Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架。 可以应用在包括数据挖掘,信息处理或存储历史数据等一系列的程序中。Scrapy的一个最主要的优势: 请求(request)是被异步调度和处理的。 这意味着,Scrapy并不需要等待一个请求(request)完成及处理,在此同时, 也发送其他请求或者做些其他事情。 这也意味着,当有些请求失败或者处理过程中出现错误时,其他的请求也能继续处理。在允许您可以以非常快的速度进行爬取时(以容忍错误的方式同时发送多个request), Scrapy也通过 一些设置来允许您控制其爬取的方式。 例如,您可以为两个request之间设置下载延迟, 限制单域名(domain)或单个IP的并发请求量,甚至可以 使用自动限制插件 来自动处理这些问题。
在开始爬取之前,您必须创建一个新的Scrapy项目。 进入您打算存储代码的目录中,运行下列命令:scrapy startproject projectname
创建项目
在文件夹内可以看到该项目的目录结构
目录结构
我们可以看到这里生成了一个与项目名称同名的文件夹,该文件夹下有一个同名文件夹和一个scrapy.cfg文件。
根据创建项目时命令行提示进入项目文件夹内,运行scrapy genspider example example.com
这里要提到scrapy的命令,它分为全局命令和项目命令,使用scrapy <command> -h可以查看详细的命令信息
fetch
主要来显示爬虫爬取的过程,用法scrapy fetch http://www.baidu.com
。如果在scrapy目录之外使用该命令,会调用默认的爬虫来进行网页爬取。如果在scrapy某个项目目录内使用该命令,则会调用该项目中的爬虫进行网页的爬取runspider
可以实现不依托scrapy的爬虫项目直接运行一个爬虫文件settings
查看scrapy对应的配置信息,项目内查看项目的配置信息,项目目录外查看是scrapy默认配置信息shell
可以启动scrapy的交互终端。它可以在不启动scrapy爬虫的情况下,对网站响应进行调试。比如xpath或者css提取内容,可以现在这里调试成功后再写入到item中。startproject
创建项目version
显示scrapy的版本信息view
实现下载某个网页并用浏览器查看bench
测试本地硬件的性能
-genspider
创建scrapy爬虫文件
-check
实现对某个爬虫文件进行合同检查。爬虫的测试比较麻烦,所以在scrapy中使用合同(contract)的方式对爬虫进行测试
-crawl
启动爬虫,格式为scrapy crawl 爬虫名
-list
列出当前可用的爬虫文件
-edit
可以直接打开编辑器对爬虫文件进行编辑
-parse
实现获取指定的url网址,并使用对应的爬虫文件进行处理和分析扫码关注腾讯云开发者
领取腾讯云代金券
Copyright © 2013 - 2025 Tencent Cloud. All Rights Reserved. 腾讯云 版权所有
深圳市腾讯计算机系统有限公司 ICP备案/许可证号:粤B2-20090059 深公网安备号 44030502008569
腾讯云计算(北京)有限责任公司 京ICP证150476号 | 京ICP备11018762号 | 京公网安备号11010802020287
Copyright © 2013 - 2025 Tencent Cloud.
All Rights Reserved. 腾讯云 版权所有