我们今天要学习的是如何利用Python的requests库编写一个采集B站的小爬虫,都是一些很基础的内容,简单易学,没有什么太过复杂的东西,一起来看看吧。
首先安装库:
```bash
pip install requests
```
然后,我们可以开始编写爬虫程序:
```python
import requests
# 创建一个proxies字典,用于指定代理服务器的地址和端口
proxies = {
'http': f'http://{proxy_host}:{proxy_port}',
'https': f'https://{proxy_host}:{proxy_port}',
}
# 向B站发送GET请求,获取视频页面的HTML内容
response = requests.get('https://www.bilibili.com/video', headers={'User-Agent': 'Mozilla/5.0'}, proxies=proxies)
# 如果请求成功,打印HTML内容
if response.status_code == 200:
print(response.text)
else:
print(f'请求失败,状态码为{response.status_code}')
```
这段代码的作用是,使用代理服务器向B站发送GET请求,获取视频页面的HTML内容。然后,如果请求成功,打印HTML内容。注意,我们在请求头中添加了一个User-Agent字段,这是为了让B站服务器知道我们是浏览器,而不是爬虫。此外,我们还指定了代理服务器的地址和端口。
领取专属 10元无门槛券
私享最新 技术干货