在学习爬虫的过程中, 遇到过不少坑.
今天这个坑可能以后你也会遇到, 随着爬取数据量的增加, 以及爬取的网站数据字段的变化, 以往在爬虫入门时使用的方法局限性可能会骤增.
怎么个骤增法?...Intro 引例
在爬虫入门的时候, 我们爬取豆瓣电影Top250这些数据量并不是很大的网页时(仅计算文本数据量), 通常无需考虑数据存储的效率问题, 使用MySQL这些关系型数据库, 或者用TXT,...起初, 我爬的数据量在几千条时, 我选择用MySQL作为数据存储的数据库, 爬取结束时, 存储的时间花了几秒, 我还没有太在意.
?
但是当我爬取的数据量到了200M左右时, 问题非常明显了....查询指令使用JSON形式的标记,可轻易查询文档中内嵌的对象及数组
内建支持Map和Reduce函数, 可对数据进行批量和聚合操作....(注意函数要写在某个Pipeline类中, 并在 settings.py中启用对应的Pipeline, 如果你已经启用, 直接添加即可):
# 在Python中使用mongoDB的所需的包
import