前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >python多线程并发采集黄金走势数据

python多线程并发采集黄金走势数据

原创
作者头像
小白学大数据
发布于 2023-03-21 08:00:51
发布于 2023-03-21 08:00:51
92801
代码可运行
举报
文章被收录于专栏:python进阶学习python进阶学习
运行总次数:1
代码可运行

最近随着硅谷银行破产、瑞信暴雷引发全球金融风险担忧加剧,叠加美联储加息预期放缓,国际金价逼近2000美元/盎司关口。据中国基金报报道,在经历近一个月的震荡下跌后,本周现货黄金价格持续走高,现货黄金收报1989美元/盎司,涨幅3.64%,且已突破2月初的金价高位,创下近11个月以来新高,其中有多重因素影响,不过欧美银行业危机引发市场避险情绪升温是主要推动因素。

最近也有些关于黄金相关分析的项目需要用到金交所数据,这里直接获取权威的交易数据,上海黄金交易所官网就有历年的交易数据。直接用熟悉的Python写个爬虫自动获取。

首先进行简单的网站分析,找到上海黄金交易所每日行情页列表(首页 > 数据资讯 > 历史行情数据 > 每日行情。分析发现网站还存在反爬机制,对访问的IP的有爬频率限制。所以爬虫程序里面直接python使用aiohttp 通过设置代理IP,多线程并发采集,这样能更高效的获取数据。代理IP最好是选择付费的优质代理服务商,不管是代理的连通率,延迟,速度,带宽都有保证。实现代码如下:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# 导入相关库
import asyncio
import aiohttp
from aiohttp_socks import ProxyConnector
from bs4 import BeautifulSoup

# 定义目标网站和代理服务器的参数
url = "https://www.sge.com.cn/sjzx/mrhqsj"
proxy = "socks5://16yun:16ip@www.16yun.cn:11111"

# 定义异步函数来发送GET请求,并使用代理服务器来连接目标网站
async def fetch(session, url):
    try:
        async with session.get(url) as response:
            # 检查响应状态码是否为200,否则抛出异常
            if response.status != 200:
                raise Exception(f"Bad status code: {response.status}")
            # 返回响应内容的文本格式
            return await response.text()
    except Exception as e:
        # 打印异常信息,并返回None
        print(e)
        return None

# 定义异步函数来处理响应结果,并解析HTML内容
async def parse(html):
    # 如果响应结果不为空,则进行解析操作
    if html is not None:
        # 使用bs4库来创建BeautifulSoup对象,并指定解析器为html.parser
        soup = BeautifulSoup(html, "html.parser")
        # 提取网页中的标题标签,并打印其文本内容
        title = soup.find("title")
        print(title.text)
    else:
        # 否则打印None表示无效结果
        print(None)

# 定义异步函数来统计成功次数,并打印结果
async def count(results):
    # 初始化成功次数为0
    success = 0
    # 遍历所有的结果,如果不为空,则增加成功次数,否则跳过
    for result in results:
        if result is not None:
            success += 1
    # 打印总共的请求数和成功次数    
    print(f"Total requests: {len(results)}")
    print(f"Success requests: {success}")

# 定义异步主函数来创建并运行多个协程任务,并控制并发数量和超时时间等参数    
async def main():
    # 创建一个aiohttp_socks.ProxyConnector对象,用来设置代理服务器的参数    
    connector = ProxyConnector.from_url(proxy)
    # 创建一个aiohttp.ClientSession对象,用来发送HTTP请求,并传入connector参数    
    async with aiohttp.ClientSession(connector=connector) as session:
        # 创建一个空列表,用来存储所有的协程任务        
        tasks = []
        # 循环10000次,每次创建一个fetch函数的协程任务,并添加到列表中        
        for i in range(10000):
            task = asyncio.create_task(fetch(session, url))
            tasks.append(task)
        
        # 使用asyncio.gather函数来收集并执行所有的协程任务,并返回一个包含所有结果的列表        
        results = await asyncio.gather(*tasks)
        
        # 创建一个空列表,用来存储所有的解析任务        
        parse_tasks = []
        
         for result in results:
             parse_task = asyncio.create_task(parse(result))
             parse_tasks.append(parse_task)
             
         await asyncio.gather(*parse_tasks)   
         
         await count(results)

# 在程序入口处调用异步主函数,并启动事件循环         
if __name__ == "__main__":
     asyncio.run(main())

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
python异步爬虫的实现过程
在日常爬虫中我们会涉及到同步与异步问题,一般异步编程可以大幅度的提高系统的吞吐量,提高单位时间内发出的请求数目。之前的文章分享了些同步的知识,就是对aurl发起请求,等待响应。然后再访问burl,等待响应。。。
小白学大数据
2023/06/09
4650
大型fastapi项目实战 高并发请求神器之aiohttp(下)
1.先通过 event_loop = asyncio.get_event_loop() 创建了一个事件循环 2.通过 asyncio.gather 接受多个 future 或 coro 组成的列表 任务 3.通过 event_loop.run_until_complete(task) 我们 就开启 事件循环 直到这个任务执行结束。 4.async with aiohttp.ClientSession() as session: 是创建了一个异步的网络请求的上线文管理具柄 5.async with session.get('http://www.baidu.com') as resp: 异步请求数据 6.res = await resp.text() 异步的接收数据 再解释一下两个关键词 1.async 如果一个函数被这个async 关键词修饰 那这个函数就是一个 future object 2.await 协程对象执行到这个关键词定义之处就会做挂起操作,原理是与yield /yield from 类似的。
python编程从入门到实践
2021/03/03
3.4K0
大型fastapi项目实战 高并发请求神器之aiohttp(下)
python高效爬虫的实现可以从哪些方面入手
在爬取数据的时候大家都希望自己的程序是能高效完成爬虫任务的,高效爬虫在提高爬取速度的同时也增加了爬取的数据量。这对于需要大量数据支撑的数据分析、机器学习、人工智能等任务非常重要。高效爬虫可以获取更多的原始数据,并允许更精准的数据清洗和处理。这样可以提高数据的质量和关联性,使得后续的分析和挖掘工作更加准确和有价值。
小白学大数据
2023/06/29
2440
使用aiohttp库实现异步爬虫进行优化
在日常爬虫工作中,我们经常使用requests库去爬取某个站点的数据,但是每发出一个请求,程序必须等待网站返回响应才能接着运行,而在整个爬虫过程中爬虫程序是一直在等待的,实际上没有做任何事情。像这种占用磁盘/内存IO、网络IO的任务,大部分时间是CPU在等待的操作,就叫IO密集型任务。对于这种情可以考虑使用aiohttp库实现异步爬虫进行优化。
小白学大数据
2023/03/31
6900
python使用aiohttp通过设置代理爬取基金数据
说到python爬虫,我们就会想到它那强大的库,很多新手小白在选择框架的时候都会想到使用Scrapy,但是仅仅停留在会使用的阶段。在实际爬虫过程中遇到反爬机制是再常见不过的,今天为了增加对爬虫机制的理解,我们就通过手动实现多线程的爬虫过程,同时引入IP代理池进行基本的反爬操作。
小白学大数据
2023/06/15
5810
Python异步编程与事件循环的实战指南
异步编程是一种高效的编程方式,特别适用于I/O密集型任务,如网络请求、文件读取等。Python中,异步编程主要通过asyncio模块实现。asyncio提供了事件循环、协程和任务等关键概念,使得编写异步代码更加直观和高效。本文将详细介绍Python异步编程与事件循环的基本概念和高级用法,包含具体的示例代码,帮助更好地理解和应用这些技术。
sergiojune
2024/08/12
2580
Python异步编程与事件循环的实战指南
多线程+代理池如何爬取新闻数据
说到数据爬取,大部分人都会想到使用Scrapy工具,但是仅仅停留在会使用的阶段。但是要真正的成为技术大牛,需要学会更多的爬虫技术,对于爬虫来说突破各种网站的反爬机制也是需要技术能力的。所以今天为了增加对目标网站爬虫机制的理解,我们可以通过手动实现多线程的爬虫过程,同时,引入IP代理池进行基本的反爬操作。 本次使用腾讯新闻网进行爬虫,该网站具有反爬机制,同时数量足够大,多线程效果较为明显。 需要使用到的技术如下
小白学大数据
2024/06/08
1220
多线程+代理池如何爬取新闻数据
说到数据爬取,大部分人都会想到使用Scrapy工具,但是仅仅停留在会使用的阶段。但是要真正的成为技术大牛,需要学会更多的爬虫技术,对于爬虫来说突破各种网站的反爬机制也是需要技术能力的。所以今天为了增加对目标网站爬虫机制的理解,我们可以通过手动实现多线程的爬虫过程,同时,引入IP代理池进行基本的反爬操作。
小白学大数据
2023/06/26
2760
python爬虫增加多线程获取数据
Python爬虫应用领域广泛,并且在数据爬取领域处于霸主位置,并且拥有很多性能好的框架,像Scrapy、Request、BeautifuSoap、urlib等框架可以实现爬行自如的功能,只要有能爬取的数据,Python爬虫均可实现。数据信息采集离不开Python爬虫,而python爬虫离不开代理ip,他们的结合可以做的事情很多,如广告营销、各种数据采集大数据分析,人工智能等,特别是在数据的抓取方面可以产生的作用巨大。
小白学大数据
2023/03/15
7960
Python笔记(十八):协程asyncio
5、一个比较好的方式是asyncio.run(main())作为程序入口,在程序运行周期内,只调用一次asyncio.run()
free赖权华
2020/06/07
5400
异步爬虫实践攻略:利用Python Aiohttp框架实现高效数据抓取
在当今信息爆炸的时代,数据是无处不在且变化迅速的。为了从海量数据中获取有用的信息,异步爬虫技术应运而生,成为许多数据挖掘和分析工作的利器。本文将介绍如何利用Python Aiohttp框架实现高效数据抓取,让我们在信息的海洋中快速捕捉所需数据。
小白学大数据
2024/03/21
3050
多线程、协程和多进程并发编程(续写)
python中的多线程其实并不是真正的多线程,如果想要充分地使⽤多核CPU的资源,在python中
软件架构师Michael
2023/12/23
3521
什么是Python asyncio
最近看到很多关于 asyncio 的代码,所以本篇文章,我们需要详细聊一下 asyncio,不会有过多的关于 asyncio 本身函数使用的例子,重点关注是什么以及为什么,asyncio 函数相对较简单。
科技新语
2024/07/02
1400
什么是Python asyncio
使用asyncio库和多线程实现高并发的异步IO操作的爬虫
摘要:本文介绍了如何使用Python的asyncio库和多线程实现高并发的异步IO操作,以提升爬虫的效率和性能。通过使用asyncio的协程和事件循环,结合多线程,我们可以同时处理多个IO任务,并实现对腾讯新闻网站的高并发访问。
小白学大数据
2023/07/10
1.4K0
使用Python爬取网站数据并进行图像处理
在互联网时代,网站数据是一种宝贵的资源,可以用于分析、挖掘、展示等多种目的。但是,如何从海量的网页中提取我们需要的数据呢?Python是一种强大而灵活的编程语言,它提供了许多用于爬虫和图像处理的库和工具,可以帮助我们实现这一目标。本文将介绍如何使用Python爬取网站数据并进行图像处理的基本步骤和方法。
jackcode
2023/08/14
4830
使用Python爬取网站数据并进行图像处理
异步爬虫实践攻略:利用Python Aiohttp框架实现高效数据抓取
异步爬虫是指在进行数据抓取时能够实现异步IO操作的爬虫程序。传统的爬虫程序一般是同步阻塞的,即每次发送请求都需要等待响应返回后才能进行下一步操作,效率较低。而异步爬虫可以在发送请求后不阻塞等待响应,而是继续执行其他任务,从而提升了数据抓取效率。
小白学大数据
2024/06/08
2820
Python异步请求对大数量请求也太友好了,Python异步的复习
刚进入公司,由于对抓取这块比较有经验,然后刚好业务也是有一部分抓取的。于是我的任务就先是这些数据采集。 采用异步请求之后的效果:
SingYi
2022/07/13
3.6K1
Python异步请求对大数量请求也太友好了,Python异步的复习
Python异步IO操作,看这个就够了
异步 IO 是一种并发编程设计,Python3.4 开始,已经有专门的标准库 asyncio 来支持异步 IO 操作。你可能会说,我知道并发用多线程,并行用多进程,这里面的知识已经够我掌握的了,异步 IO 又是个什么鬼?本文将会回答该问题,从而使你更加牢固地掌握 Python 的异步 IO 操作方法。
somenzz
2020/11/25
2.8K0
Python异步IO操作,看这个就够了
有什么技术可以更高效的爬取数据
之前我们学习了在Python爬虫中使用HTTP代理,现在我们遇到的问题是如何更高效地爬取数据。我需要结合之前的教程,深入分析用户的需求。
华科云商小徐
2025/04/01
1640
PKW: asyncio 标准库简介(第 4 期)
”事情很少有根本做不成的;其所以做不成,与其说是条件不够,不如说是由于决心不够。“ ”Few things are impossible in themselves; and it is often for want of will, rather than of means, that man fails to succeed.“
周萝卜
2019/07/17
6080
推荐阅读
相关推荐
python异步爬虫的实现过程
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验