前往小程序,Get更优阅读体验!
立即前往
发布
社区首页 >专栏 >剖析灵魂,为什么aiohttp默认的写法那么慢?

剖析灵魂,为什么aiohttp默认的写法那么慢?

作者头像
青南
发布2019-12-25 16:39:49
发布2019-12-25 16:39:49
1.8K00
代码可运行
举报
文章被收录于专栏:未闻Code未闻Code
运行总次数:0
代码可运行

在上一篇文章中,我们提到了 aiohttp 官方文档中的默认写法速度与 requests 单线程请求没有什么区别,需要通过使用asyncio.wait来加速 aiohttp 的请求。今天我们来探讨一下这背后的原因。

我们使用一个可以通过 URL 设定返回延迟的网站来进行测试,网址为:http://httpbin.org/delay/5。当delay后面的数字为 5 时,表示请求这个网址以后,要等 5 秒才会收到返回;当delay后面的数字为 3 时,表示请求这个网址以后,要等 3 秒才会收到返回。大家可以在浏览器上面输入这个网址测试看看。

现在我们写一段简单的 aiohttp 代码来进行测试:

代码语言:javascript
代码运行次数:0
复制
import asyncio
import aiohttp
import time


async def main():
    async with aiohttp.ClientSession() as session:
        start = time.time()
        await session.get('http://httpbin.org/delay/3')
        await session.get('http://httpbin.org/delay/5')
        end = time.time()
        print(f'总共耗时:{end - start}')


asyncio.run(main())  # Python 3.7或以上程序直接执行这一行即可运行

# Python 3.6或以下需要注释掉上面一行,并为下面两行解除注释
#loop = asyncio.get_event_loop()
#loop.run_until_complete(main())

注意,如果你的 Python 版本大于等于 3.7,那么你可以直接使用asyncio.run来运行一个协程,而不需要像昨天那样先创建一个事件循环再运行。

运行效果如下图所示:

可以看到,运行时间大于 8 秒钟,也就是说,这段代码,是先请求第一个 3 秒的网址,等它运行完成以后,再请求第二个 5 秒的网址,他们根本就没有并行!

按照我们之前的认识,协程在网络 IO 等待的时候,可以交出控制权,当 aiohttp 请求第一个 3 秒网址,等待返回的时候,应该就可以立刻请求第二个 5 秒的网址。在等待 5 秒网址返回的过程中,又去检查第一个 3 秒请求是否结束了。直到 3 秒请求已经返回了结果,再等待 5 秒的请求。

那为什么上面这段代码,并没有按这段逻辑来走?

这是因为,协程虽然可以充分利用网络 IO 的等待时间,但它并不会自动这么做。而是需要你把它加入到调度器里面。

能被 await的对象有 3 种:协程、Task 对象、future 对象。

当你await 协程对象时,它并没有被加入到调度器中,所以它依然是串行执行的。

但 Task 对象会被自动加入到调度器中,所以 Task 对象能够并发执行。

要创建一个 Task 对象非常简单:

代码语言:javascript
代码运行次数:0
复制
asyncio.create_task(协程) #python 3.7或以上版本的写法
asyncio.ensure_future(协程)  # python 3.6或以下的写法

所以我们来稍稍修改一下代码:

代码语言:javascript
代码运行次数:0
复制
import asyncio
import aiohttp
import time


async def main():
    async with aiohttp.ClientSession() as session:
        start = time.time()
        task1 = asyncio.create_task(session.get('http://httpbin.org/delay/3'))
        task2 = asyncio.create_task(session.get('http://httpbin.org/delay/5'))
        await task1
        await task2
        end = time.time()
        print(f'总共耗时:{end - start}')


asyncio.run(main())  # Python 3.7或以上程序直接执行这一行即可运行

运行效果如下图所示:

可以看到,现在请求两个网址的时间加到一起,只比 5 秒多一点,说明确实已经实现了并发请求的效果。至于这多出来的一点点时间,是因为协程之间切换控制权导致的。

那么为什么我们把很多协程放进一个 列表里面,然后把列表放进 asyncio.wait里面,也能实现并行呢?这是因为,asyncio.wait帮我们做了创建 Task 的任务。这一点我们可以在 Python 的官方文档[1]中看到原话:

同理,当你把协程传入asyncio.gather时,这些协程也会被当做 Task 来调度:

回到我们昨天的问题,我们不用asyncio.wait也不用asyncio.Queue让爬虫并发起来:

代码语言:javascript
代码运行次数:0
复制
import asyncio
import aiohttp

template = 'http://exercise.kingname.info/exercise_middleware_ip/{page}'


async def get(session, page):
    url = template.format(page=page)
    resp = await session.get(url)
    print(await resp.text(encoding='utf-8'))


async def main():
    async with aiohttp.ClientSession() as session:
        tasks = []
        for page in range(1000):
            task = asyncio.create_task(get(session, page))
            tasks.append(task)
        for task in tasks:
            await task

asyncio.run(main())

运行效果如下图所示:

但你需要注意一点,创建 Task 与await Task是分开执行的:

代码语言:javascript
代码运行次数:0
复制
tasks = []
for page in range(1000):
    task = asyncio.create_task(get(session, page))
    tasks.append(task)
for task in tasks:
    await task

你不能写成下面这样:

代码语言:javascript
代码运行次数:0
复制
for task in range(1000):
    task = asyncio.create_task(get(session, page))
    await task

这是因为,创建 Task 的时候会自动把它加入到调度队列里面,然后await Task的时候执行调度。上面这样写,会导致每一个 Task 被分批调度,一个 Task 在等待网络 IO 的时候,没有办法切换到第二个 Task,所以最终又会降级成串行请求。

参考资料

[1]

官方文档: https://docs.python.org/3/library/asyncio-task.html#waiting-primitives

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2019-12-19,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 未闻Code 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 参考资料
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档