Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >【Python】已解决:requests.exceptions.ConnectTimeout: HTTPConnectionPool(host=‘123.96.1.95’, port=30090)

【Python】已解决:requests.exceptions.ConnectTimeout: HTTPConnectionPool(host=‘123.96.1.95’, port=30090)

作者头像
屿小夏
发布于 2025-05-23 09:29:20
发布于 2025-05-23 09:29:20
14100
代码可运行
举报
文章被收录于专栏:IT杂谈学习IT杂谈学习
运行总次数:0
代码可运行

已解决:requests.exceptions.ConnectTimeout错误解析与解决方案

一、分析问题背景

在使用Python的requests库进行网络请求时,有时会遇到连接超时的问题。报错信息如下:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
requests.exceptions.ConnectTimeout: HTTPConnectionPool(host=123.96.1.95, port=30090): Max retries exceeded with url: http://cdict.qq.pinyin.cn/list?cate_id=461&sort1_id=436&sort2_id=461&page=4 (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x00000204934C49A0>, ‘Connection to 123.96.1.95 timed out. (connect timeout=20)))

这个错误通常发生在尝试连接到某个服务器时,但是在设定的超时时间内没有建立连接。在这个具体的例子中,代码试图连接到IP地址为123.96.1.95,端口号为30090的服务器,但在20秒内未能成功建立连接。

二、可能出错的原因

  1. 服务器不可达:目标服务器可能处于关闭状态,或者由于网络问题无法访问。
  2. 网络延迟:网络拥堵或不稳定可能导致连接请求无法及时到达服务器或服务器的响应无法及时返回。
  3. 超时设置不合理:如果设置的超时时间过短,可能在网络稍微波动时就会导致超时。
  4. 服务器负载过高:服务器处理请求的速度慢于请求的到达速度,导致连接超时。

三、错误代码示例

以下是一个可能导致上述错误的代码示例:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
import requests  
  
url = "http://cdict.qq.pinyin.cn/list?cate_id=461&sort1_id=436&sort2_id=461&page=4"  
try:  
    response = requests.get(url, timeout=20)  # 设置超时时间为20秒  
    response.raise_for_status()  # 如果响应状态码不是200,就主动抛出异常  
except requests.exceptions.RequestException as e:  
    print(e)

在这段代码中,如果服务器在20秒内没有响应,就会触发ConnectTimeout异常。

四、正确代码示例

为了解决这个问题,可以采取以下措施:

  1. 增加超时时间:如果网络状况不佳,可以尝试增加超时时间。
  2. 错误处理:添加适当的错误处理逻辑,以便在发生超时时执行特定的操作,如重试请求或记录错误。

以下是修改后的代码示例:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
import requests  
from requests.adapters import HTTPAdapter  
from requests.packages.urllib3.util.retry import Retry  
  
url = "http://cdict.qq.pinyin.cn/list?cate_id=461&sort1_id=436&sort2_id=461&page=4"  
  
# 创建一个Session对象  
session = requests.Session()  
  
# 设置重试策略  
retries = Retry(total=3, backoff_factor=0.1, status_forcelist=[500, 502, 503, 504])  
session.mount('http://', HTTPAdapter(max_retries=retries))  
  
try:  
    response = session.get(url, timeout=30)  # 增加超时时间到30秒  
    response.raise_for_status()  
except requests.exceptions.RequestException as e:  
    print(e)

在这个修正后的代码中,我们使用了requests.Session和Retry来自动处理请求的重试,并且增加了超时时间到30秒。

五、注意事项

  1. 合理设置超时时间:根据网络状况和服务器的响应时间合理设置超时时间,避免过短的超时导致不必要的连接失败。
  2. 错误处理:始终为网络请求添加错误处理逻辑,以便在出现问题时能够恰当地响应。
  3. 网络状况监控:如果应用程序依赖于网络连接,建议实施网络状况监控,以便及时发现并处理网络问题。
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2024-09-21,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
python接口自动化29-requests超时重试方法
“由于连接方在一段时间后没有正确答复或连接的主机没有反应,连接尝试失败”,这是经常遇到的问题 requests.exceptions.ConnectionError: HTTPSConnectionPool(host=’www.github.com’, port=443): Max retries exceeded with url: / (Caused by NewConnectionError(‘<urllib3.connection.verifiedhttpsconnection object="" at="" 0x0000020f06524ac8="">: Failed to establish a new connection: [WinError 10060] 由于连接方在一段时间后没有正确答复或连接的主机没有反应,连接尝试失败。’,)) 一般出现这个问题的原因是:host=’www.github.com’ 主机地址没连上,使用 requests 发请求时,有些网站服务器不稳定,特别是国外的网站,经常会出现连接失败情况。 连接失败后,有时候会抛出上面异常,有时候会一直卡住,进入假死状态,没响应,也不会结束。</urllib3.connection.verifiedhttpsconnection>
上海-悠悠
2020/05/29
5.7K0
爬虫小白也能玩转!Python爬虫中的异常处理与网络请求优化
大家好,我是来自爬虫世界的小编。今天,我要和大家分享一些关于Python爬虫中的异常处理和网络请求优化的经验。不论你是初学者还是有一定经验的爬虫程序员,我相信这些实用的技巧和代码示例都能为你在爬取数据的过程中带来方便和效率。
用户614136809
2023/08/18
3470
Python Requests 库中的重试策略实践
网络请求由于各种原因可能会失败,例如网络波动、服务暂时不可达等。为了增强客户端的健壮性,实现请求的自动重试是一个常见的做法。在Python中,requests库是处理HTTP请求的标准工具之一。然而,requests本身并不直接提供重试机制,这需要借助urllib3库中的Retry类来实现。
科技新语
2024/09/13
2090
Python Requests 库中的重试策略实践
【python报错已解决】WARNING: Retrying (Retry(total=4, connect=None, read=None, redirect=None, status=None))
在开发和环境配置的过程中,遇到 WARNING: Retrying (Retry(total=4, connect=None, read=None, redirect=None, status=None)) 这样的报错信息,可能会让你感到困惑和沮丧。这个错误信息通常意味着某个操作或请求未能成功完成,系统正在尝试重新尝试。但在某些情况下,这个错误可能是一个陷阱,让你陷入无休止的尝试循环中。今天,我将帮助你解决这个问题,并提供一些有用的技巧,以便你能够更好地掌握类似情况下的解决策略。🔍
鸽芷咕
2025/05/20
5800
【python报错已解决】WARNING: Retrying (Retry(total=4, connect=None, read=None, redirect=None, status=None))
python接口自动化40-盘点requests那些不常用(面试经常问)的高级技能
前言 如果面试问你如何用 python 发 get/post 请求? 这种问题只要是个小白花10分钟随便看下博客都能学得会。 面试官如果知道你是资深的,还是初级的呢?面试其实最喜欢考那些你不常用的功能
上海-悠悠
2021/03/03
6710
python接口自动化40-盘点requests那些不常用(面试经常问)的高级技能
【python 报错已解】WARNING: Retrying (Retry(total=4, connect=None, read=None, redirect=None, status=None))
你是否曾经在开发过程中遇到过网络请求重试的报错?这种警告信息经常会出现在复杂的网络环境中,特别是在请求失败或超时时。本文将帮助你理解这类报错的根本原因,并提供多种解决方案,确保你能够快速解决这一问题。❓
鸽芷咕
2025/05/20
1870
【python 报错已解】WARNING: Retrying (Retry(total=4, connect=None, read=None, redirect=None, status=None))
Python:requests:详解超时和重试
网络请求不可避免会遇上请求超时的情况,在 requests 中,如果不设置你的程序可能会永远失去响应。 超时又可分为连接超时和读取超时。
丹枫无迹
2019/01/22
5.9K0
requests库中Session对象超时解决过程
在使用Python进行网络请求时,requests库是一个非常常用的工具。它提供了Session对象来管理和持久化参数,例如cookies、headers等。但是,对于一些需要长时间运行的请求,我们需要设置超时时间来避免长时间等待或者无限期阻塞的情况。本文将在请求库中介绍如何设置Session对象的超时时间,并提供最佳实践。
小白学大数据
2024/06/08
3370
Python爬虫面试:requests、BeautifulSoup与Scrapy详解
在Python爬虫开发的面试过程中,对requests、BeautifulSoup与Scrapy这三个核心库的理解和应用能力是面试官重点考察的内容。本篇文章将深入浅出地解析这三个工具,探讨面试中常见的问题、易错点及应对策略,并通过代码示例进一步加深理解。
Jimaks
2024/04/22
7670
Python-Requests库进阶用法——timeouts, retries, hooks
Python HTTP 请求库在所有编程语言中是比较实用的程序。它简单、直观且在 Python 社区中无处不在。大多数与 HTTP 接口程序使用标准库中的request或 urllib3。
软测小生
2021/08/06
3.3K0
Python爬虫过程中DNS解析错误解决策略
在Python爬虫开发中,经常会遇到DNS解析错误,这是一个常见且也令人头疼的问题。DNS解析错误可能会导致爬虫失败,但幸运的是,我们可以采取一些策略来处理这些错误,确保爬虫能够正常运行。本文将介绍什么是DNS解析错误,可能的原因,以及在爬取过程中遇到DNS解析错误时应该如何解决。
小白学大数据
2023/11/14
8250
requests session的应用,python金点设计奖数据爬虫
应用python爬取金点设计奖获奖作品数据的时候,发现无论如何更换协议头,获取的json数据都不会更改,但是手动打开网页json加载的数据会更改,后面想到使用使用session,数据果断出来了!
二爷
2020/07/22
8140
requests session的应用,python金点设计奖数据爬虫
开源项目 requests 的 stars 为啥比 python 还多 3.7k?
结合上一篇文章《一次算法读图超时引起的urllib3源码分析》,我们学习了 urllib3 的基本语法、常见姿势和请求管理模式,以及PoolManager、HTTPConnectionPool、HTTPConnection等模块部分源码。对于学习 Python 的小伙伴来说,urllib3 强大的功能几乎能实现所有 HTTP 请求场景,但这就足够了吗?
程序员荒生
2022/03/15
8030
开源项目 requests 的 stars 为啥比 python 还多 3.7k?
Python代理延迟突增故障定位和优化方法
在进行网络爬虫和数据采集时,代理延迟突增是一个常见的问题,影响爬虫的效率和稳定性。本文将详细分析Python代理延迟突增故障的定位和优化方法,并提供实际操作价值的解决方案。
华科云商小彭
2023/08/21
2700
Python代理延迟突增故障定位和优化方法
【Python】已解决:(Python爬虫requests报错):requests.exceptions.ProxyError: HTTPSConnectionPool
在进行Python爬虫开发时,我们经常会使用requests库来发送HTTP请求。然而,在配置代理服务器或者使用某些特定的网络环境时,我们可能会遇到requests.exceptions.ProxyError: HTTPSConnectionPool这样的报错。这个问题通常发生在尝试通过代理服务器访问HTTPS资源时,表明爬虫在与代理服务器建立连接时遇到了问题。
屿小夏
2025/05/23
1950
爬取数据缺失的补坑,Python数据爬取的坑坑洼洼如何铲平
渣渣业余选手讲解,关于爬取数据缺失的补坑,一点点关于Python数据爬取的坑坑洼洼如何铲平,个人的一些心得体会,还有结合实例的数据缺失的补全,几点参考,仅供观赏,如有雷同,那肯定是我抄袭的!
二爷
2020/07/22
1.9K0
爬取数据缺失的补坑,Python数据爬取的坑坑洼洼如何铲平
Python接口自动化——Requests基础功能
调用了 cookies 属性即可成功得到了 Cookies,可以发现它是一个 RequestCookieJar 类型,然后我们用 items() 方法将其转化为元组组成的列表,遍历输出每一个 Cookie 的名和值,实现 Cookies 的遍历解析。
清风穆云
2021/08/09
4130
Python:requests 超时机制实现
在工作环境中,访问 Http 是再常见不过了,相应的库也非常多,而 Requests 是当中比较好用的一个。
Lin_R
2020/05/12
1.3K0
吐血总结,Python Requests库使用指南
requests 库是用来在Python中发出标准的HTTP请求。它将请求背后的复杂性抽象成一个漂亮,简单的API,以便你可以专注于与服务交互和在应用程序中使用数据。
昱良
2019/05/06
9.3K0
相信我,这么写Python代码,老板给你涨工资
Python HTTP 请求库在所有编程语言中是比较实用的程序。它简单、直观且在 Python 社区中无处不在。大多数与 HTTP 接口程序使用标准库中的request或 urllib3。
软测小生
2021/08/06
1.2K0
推荐阅读
相关推荐
python接口自动化29-requests超时重试方法
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验