前往小程序,Get更优阅读体验!
立即前往
发布
社区首页 >专栏 >没想到上面好看的跳舞小姐姐蛮多的,【Python爬虫】采集微博视频数据

没想到上面好看的跳舞小姐姐蛮多的,【Python爬虫】采集微博视频数据

作者头像
松鼠爱吃饼干
发布2021-12-04 16:13:58
发布2021-12-04 16:13:58
34100
代码可运行
举报
文章被收录于专栏:Python分享Python分享
运行总次数:0
代码可运行

前言

随时随地发现新鲜事!微博带你欣赏世界上每一个精彩瞬间,了解每一个幕后故事。分享你想表达的,让全世界都能听到你的心声!今天我们通过python去采集微博当中好看的视频!

没错,今天的目标是微博数据采集,爬的是那些好看的小姐姐视频

有疑问的同学,或者想要Python相关资料的可以加群:1136201545 找管理员领取资料和一对一解答

知识点

  • requests
  • pprint

开发环境

  • 版 本:python 3.8 -编辑器:pycharm 2021.2

爬虫原理

  • 作用:批量获取互联网数据(文本, 图片, 音频, 视频)
  • 本质:一次次的请求与响应

案例实现

1. 导入所需模块

代码语言:javascript
代码运行次数:0
复制
import requests
import pprint

2. 找到目标网址

打开开发者工具,选中Fetch/XHR,选中数据所在的标签,找到目标所在url

代码语言:javascript
代码运行次数:0
复制
 https://www.weibo.com/tv/api/component?page=/tv/channel/4379160563414111/editor

3. 发送网络请求

代码语言:javascript
代码运行次数:0
复制
headers = {
    'cookie': '',
    'referer': 'https://weibo.com/tv/channel/4379160563414111/editor',
    'user-agent': '',
}
data = {
    'data': '{"Component_Channel_Editor":{"cid":"4379160563414111","count":9}}'
}
url = 'https://www.weibo.com/tv/api/component?page=/tv/channel/4379160563414111/editor'
json_data = requests.post(url=url, headers=headers, data=data).json()

4. 获取数据

代码语言:javascript
代码运行次数:0
复制
json_data_2 = requests.post(url=url_1, headers=headers, data=data_1).json()

5. 筛选数据

代码语言:javascript
代码运行次数:0
复制
dict_urls = json_data_2['data']['Component_Play_Playinfo']['urls']
video_url = "https:" + dict_urls[list(dict_urls.keys())[0]]
print(title + "\t" + video_url)

6. 保存数据

代码语言:javascript
代码运行次数:0
复制
video_data = requests.get(video_url).content
with open(f'video\\{title}.mp4', mode='wb') as f:
    f.write(video_data)
print(title, "爬取成功................")

完整代码

代码语言:javascript
代码运行次数:0
复制
import requests
import pprint

headers = {
    'cookie': '添加自己的',
    'referer': 'https://weibo.com/tv/channel/4379160563414111/editor',
    'user-agent': '',
}
data = {
    'data': '{"Component_Channel_Editor":{"cid":"4379160563414111","count":9}}'
}
url = 'https://www.weibo.com/tv/api/component?page=/tv/channel/4379160563414111/editor'
json_data = requests.post(url=url, headers=headers, data=data).json()
print(json_data)

ccs_list = json_data['data']['Component_Channel_Editor']['list']
next_cursor = json_data['data']['Component_Channel_Editor']['next_cursor']
for ccs in ccs_list:
    oid = ccs['oid']
    title = ccs['title']
    data_1 = {
        'data': '{"Component_Play_Playinfo":{"oid":"' + oid + '"}}'
    }
    url_1 = 'https://weibo.com/tv/api/component?page=/tv/show/' + oid
    json_data_2 = requests.post(url=url_1, headers=headers, data=data_1).json()
    dict_urls = json_data_2['data']['Component_Play_Playinfo']['urls']
    video_url = "https:" + dict_urls[list(dict_urls.keys())[0]]
    print(title + "\t" + video_url)

    video_data = requests.get(video_url).content
    with open(f'video\\{title}.mp4', mode='wb') as f:
        f.write(video_data)
    print(title, "爬取成功................")
本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2021-12-03,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 松鼠爱吃饼干 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 前言
  • 有疑问的同学,或者想要Python相关资料的可以加群:1136201545 找管理员领取资料和一对一解答
  • 知识点
  • 开发环境
  • 爬虫原理
  • 案例实现
    • 1. 导入所需模块
    • 2. 找到目标网址
    • 3. 发送网络请求
    • 4. 获取数据
    • 5. 筛选数据
    • 6. 保存数据
  • 完整代码
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档