前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >​Python爬虫学习之代理IP抓取

​Python爬虫学习之代理IP抓取

作者头像
萌海无涯
发布2019-08-06 15:05:38
发布2019-08-06 15:05:38
59000
代码可运行
举报
文章被收录于专栏:萌海无涯萌海无涯
运行总次数:0
代码可运行

Python爬虫学习之代理IP抓取

代理是个好东西!今天使用xpath来清理数据

运行效果:

代码语言:javascript
代码运行次数:0
运行
复制
# 主要用到的包

import requestsfrom lxml import etree
import pprint
import time

定义一个类,初始化内容添加进去

需要用到的url,请求头;

新建立一个列表来存储爬取的数据

代码语言:javascript
代码运行次数:0
运行
复制
class daili():
    def __init__(self):
        ''' 初始化操作'''
        # 起始url
        self.url = "https://www.xicidaili.com/nn"
        # 使用的是手机浏览器
        self.headers = {
            'User-Agent':'Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.142 Mobile Safari/537.36'
        }
        # 代理字典
        self.dl_list = list()

这个函数代码写的比较乱

1.请求url,获取返回的内容

2.构造了一个 XPath 解析对象

3.解析网页中的ip,端口之类需要的内容

4.保存数据

5.查找下一页内容

代码语言:javascript
代码运行次数:0
运行
复制
    def dl_pool(self, url):
        # 请求url
        txt = requests.get(url, headers=self.headers)
        # 获取url内容用于整理
        html = etree.HTML(txt.text)

        # 第一条是表头 一页100行数据
        for i in range(2, 102):
            item = {}
            # 遍历出一行数据
            ip_text = html.xpath('//*[@id="ip_list"]/tr[{}]/td/text()'.format(i))
            # 添加字典的对应键值对
            item["IP"] = ip_text[0]
            item["端口"] = ip_text[1]
            item["是否匿名"] = ip_text[4]
            item["类型"] = ip_text[5]
            item["存活时间"] = ip_text[-2]
            item["验证时间"] = ip_text[-1]
            # 添加到列表中
            self.dl_list.append(item)
        # 打印查看效果
        pprint.pprint(self.dl_list)
        # 查找下一页url
        next_page = html.xpath('//*[@id="body"]/div[3]/a[11]/@href')
        if next_page:
            # 下一页url拼接
            next_url = next_page[0].split('/')
            next_url = self.url + '/' + next_url[-1]
            print('下页地址',next_url)
            # 暂停 看下效果
            time.sleep(5)
            # 继续下一页
            return self.dl_pool(next_url)
        else:
            return
代码语言:javascript
代码运行次数:0
运行
复制

以下为全部代码:

代码语言:javascript
代码运行次数:0
运行
复制
import requests
from lxml import etree
import pprint
import time


class daili():
    def __init__(self):
        ''' 初始化操作'''
        # 起始url
        self.url = "https://www.xicidaili.com/nn"
        # 使用的是手机浏览器
        self.headers = {
            'User-Agent':'Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.142 Mobile Safari/537.36'
        }
        # 代理字典
        self.dl_list = list()


    def dl_pool(self, url):
        # 请求url
        txt = requests.get(url, headers=self.headers)
        # 获取url内容用于整理
        html = etree.HTML(txt.text)

        # 第一条是表头 一页100行数据
        for i in range(2, 102):
            item = {}
            # 遍历出一行数据
            ip_text = html.xpath('//*[@id="ip_list"]/tr[{}]/td/text()'.format(i))
            # 添加字典的对应键值对
            item["IP"] = ip_text[0]
            item["端口"] = ip_text[1]
            item["是否匿名"] = ip_text[4]
            item["类型"] = ip_text[5]
            item["存活时间"] = ip_text[-2]
            item["验证时间"] = ip_text[-1]
            # 添加到列表中
            self.dl_list.append(item)
        # 打印查看效果
        pprint.pprint(self.dl_list)
        # 查找下一页url
        next_page = html.xpath('//*[@id="body"]/div[3]/a[11]/@href')
        if next_page:
            # 下一页url拼接
            next_url = next_page[0].split('/')
            next_url = self.url + '/' + next_url[-1]
            print('下页地址',next_url)
            # 暂停 看下效果
            time.sleep(5)
            # 继续下一页
            return self.dl_pool(next_url)
        else:
            return
    def __call__(self, *args, **kwargs):
        ''' 流程控制 '''
        # 调用爬取函数
        self.dl_pool(self.url)
        # 格式化输出字典
        # pprint.pprint(self.dl_list)


def main():
    pp = daili()
    pp()


if __name__ == '__main__':
    main()
本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2019-08-04,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 萌海无涯 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档