Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >nginx反向代理时保持长连接

nginx反向代理时保持长连接

作者头像
京东技术
发布于 2021-06-09 09:14:06
发布于 2021-06-09 09:14:06
9.2K00
代码可运行
举报
文章被收录于专栏:京东技术京东技术
运行总次数:0
代码可运行

Tech

  • nginx反向代理,如何通过配置支持从client到server的长连接?
  • 如何避免nginx线程池内线程数反复震荡导致性能不稳定的问题?

深入了解nginx,get到nginx的一些性能优化方向。除了了解如何保持长连接,也通过本案例学习到开源中间件的一些常用定位思路和优化方法。

场景描述

HTTP1.1之后,HTTP协议支持持久连接,也就是长连接,优点在于在一个TCP连接上可以传送多个HTTP请求和响应,减少了建立和关闭连接的消耗和延迟。如果我们使用了nginx去作为反向代理或者负载均衡,从客户端过来的长连接请求就会被转换成短连接发送给服务器端。为了支持长连接,我们需要在nginx服务器上做一些配置。

要求

到长连接,我们必须做到以下两点:

i.从client到nginx是长连接

ii.从nginx到server是长连接

对于客户端而言,nginx其实扮演着server的角色,反之,之于server,nginx就是一个client。

保持和Client的长连接

我们要想做到Client与Nginx之间保持长连接,需要:

i.Client发送过来的请求携带“keep-alive”header。

ii.Nginx设置支持keep-alive。

HTTP配置

默认情况下,nginx已经开启了对client连接的keepalive 支持。对于特殊场景,可以调整相关参数。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
http {
     keepalive_timeout 120s;          #客户端链接超时时间。为0的时候禁用长连接。
     keepalive_requests 10000;        #在一个长连接上可以服务的最大请求数目。
                                      #当达到最大请求数目且所有已有请求结束后,连接被关闭。
                                      #默认值为100
}

大多数情况下,keepalive_requests = 100也够用,但是对于 QPS 较高的场景,非常有必要加大这个参数,以避免出现大量连接被生成再抛弃的情况,减少TIME_WAIT。QPS=10000 时,客户端每秒发送 10000 个请求 (通常建立有多个长连接),每个连接只能最多跑 100 次请求,意味着平均每秒钟就会有 100 个长连接因此被 nginx 关闭。同样意味着为了保持 QPS,客户端不得不每秒中重新新建 100 个连接。因此,如果用netstat命令看客户端机器,就会发现有大量的TIME_WAIT的socket连接 (即使此时keepalive已经在 Client 和 NGINX 之间生效)。

保持和Server的长连接

想让Nginx和Server之间维持长连接,最朴素的设置如下:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
http {
     upstream backend {
     server  192.168.0.18080 weight=1 max_fails=2 fail_timeout=30s;
     server  192.168.0.28080 weight=1 max_fails=2 fail_timeout=30s;
     keepalive 300;     // 这个很重要!
     }

     server {
          listen 8080 default_server;
          server_name "";
          
          location / {
                proxy_pass http://backend;
                proxy_http_version 1.1;// 设置http版本为1.1
                proxy_set_header Connection "";         //设置
                Connection为长连接(默认为no)}
           }
     }
}

upstream配置

upstream中,有一个参数特别的重要,就是keepalive这个参数和之前http里面的 keepalive_requests 不一样。这个参数的含义是,连接池里面最大的空闲连接数量。

不理解?没关系,我们来举个例子:

场景:

有一个HTTP服务,作为upstream服务器接收请求,响应时间为100毫秒。要求性能达到10000 QPS,我们需要在nginx与upstream服务器之间建立大概1000条HTTP请求。(1000/0.1s=10000)

最优情况:

假设请求非常的均匀平稳,每一个请求都是100ms,请求结束会被马上放入连接池并置为idle(空闲)状态。

我们以0.1s为单位:

1. 我们现在keepalive的值设置为10,每0.1s钟有1000个连接。

2. 第0.1s的时候,我们一共有1000个请求收到并释放。

3. 第0.2s的时候,我们又来了1000个请求,在0.2s结束的时候释放。

请求和应答都比较均匀,0.1s释放的连接正好够用,不需要建立新连接,且连接池中没有idle状态的连接。

第一种情况:

应答非常平稳,但是请求不平稳的时候

1.第0.3s的时候,我们只有500个请求收到,有500个请求因为网络延迟等原因没有进来。这个时候,Nginx检测到连接池中有500个idle状态的连接,就直接关闭了(500-10)个连接。

2.第0.4s的时候,我们收到了1500个请求,但是现在池里面只有(500+10)个连接,所以Nginx不得不重新建立了(1500-510)个连接。如果在第4步的时候,没有关闭那490个连接的话,只需要重新建立500个连接。

第二种情况:

请求非常平稳,但是应答不平稳的时候

1. 第0.3s的时候,我们一共有1500个请求收到。但是池里面只有1000个连接,这个时候,Nginx又创建了500个连接,一共1500个连接。

2.第0.3s的时候,第0.3s的连接全部被释放,我们收到了500个请求。 Nginx检测到池里面有1000个idle状态的连接,所以不得不释放了(1000-10)个连接。造成连接数量反复震荡的一个推手,就是这个keepalive 这个最大空闲连接数。上面的两种情况说的都是 keepalive设置的不合理导致Nginx有多次释放与创建连接的过程,造成资源浪费。

keepalive 这个参数设置一定要小心,尤其是对于 QPS 要求比较高或者网络环境不稳定的场景,一般根据 QPS 值和 平均响应时间能大致推算出需要的长连接数量。然后将keepalive设置为长连接数量的10%到30%。

location配置

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
http {
     server {
          location / {
                 proxy_pass http://backend;
                 proxy_http_version 1.1;// 设置http版本为1.1
                 proxy_set_header Connection "";         //设置
                 Connection为长连接(默认为no)
           }
      }
}

HTTP 协议中对长连接的支持是从 1.1 版本之后才有的,因此最好通过proxy_http_version 指令设置为 1.1。HTTP1.0不支持keepalive特性,当没有使用HTTP1.1的时候,后端服务会返回101错误,然后断开连接。而“Connection” header 可以选择被清理,这样即便是 Client 和 Nginx 之间是短连接,Nginx 和 upstream 之间也是可以开启长连接的。

另外一种高级方式

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
http {
     map $http_upgrade $connection_upgrade {
         default upgrade;
         '' close;
     }
 
     upstream backend {
         server  192.168.0.18080 weight=1 max_fails=2 fail_timeout=30s;
         server  192.168.0.28080 weight=1 max_fails=2 fail_timeout=30s;
         keepalive 300;
    }
 
    server {
         listen 8080 default_server;
         server_name "";
         location / {
               proxy_pass http://backend;
 
               proxy_connect_timeout 15;                  #与upstream server的连接超时时间(没有单位,最大不可以超过75s)
               proxy_read_timeout 60s;                       #nginx会等待多长时间来获得请求的响应
               proxy_send_timeout 12s;                       #发送请求给upstream服务器的超时时间
 
               proxy_http_version  1.1;          
               proxy_set_header   Upgrade    $http_upgrade;
               proxy_set_header    Connection     
               $connection_upgrade;
        }
    }
}

http里面的map的作用是:让转发到代理服务器的 "Connection" 头字段的值,取决于客户端请求头的"Upgrade" 字段值。

如果$http_upgrade没有匹配,那 "Connection" 头字段的值会是upgrade。

如果$http_upgrade为空字符串的话,那 "Connection" 头字段的值会是 close。

【补充】

NGINX支持WebSocket。对于NGINX将升级请求从客户端发送到后台服务器,必须明确设置Upgrade和Connection标题。这也算是上面情况所非常常用的场景。HTTP的Upgrade协议头机制用于将连接从HTTP连接升级到WebSocket连接,Upgrade机制使用了Upgrade协议头和Connection协议头。为了让Nginx可以将来自客户端的Upgrade请求发送到后端服务器,Upgrade和Connection的头信息必须被显式的设置。

【注意】

在nginx的配置文件中,如果当前模块中没有proxy_set_header的设置,则会从上级别继承配置。继承顺序为:http, server, location。如果在下一层使用proxy_set_header修改了header的值,则所有的header值都可能会发生变化,之前继承的所有配置将会被丢弃。所以,尽量在同一个地方进行proxy_set_header,否则可能会有别的问题。

【参考】

Nginx中文官方文档: http://www.nginx.cn/doc/

测试参考文档: https://www.lijiaocn.com/问题/2019/05/08/nginx-ingress-keep-alive-not-work.html

keep-alive参考文档:https://wglee.org/2018/12/02/nginx-keepalive/

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2021-06-07,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 京东技术 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
go-websocket 分布式IM
基于golang实现的分布式聊天系统,支持一对一聊天,聊天室等功能。为了测试方便发送消息数据暂未存入数据库,后期会加入数据库,也可自行加入数据库,方便永久存储聊天内容,以及支持消息必达等功能。
孤烟
2022/03/19
1.4K0
nginx反向代理配置详解
查看本篇文章链接:https://bt.ciilii.com/show/news-6.html
西里网
2025/03/06
3490
nginx优化之keepalive
1、TCP_NODELAY 你怎么可以强制 socket 在它的缓冲区里发送数据? 一个解决方案是 TCP 堆栈的 TCP_NODELAY选项。这样就可以使缓冲区中的数据立即发送出去。
sunsky
2020/08/20
1.3K0
Nginx系列之websocket反向代理
经过以上简单的配置,nginx -s reload后,nginx即可作为websocket反向代理服务器。这段配置的关键在于server配置段中的proxy_http_version、proxy_set_header指令,分别设置http_veresion、Upgrade、Connection头部,从而实现http到webdocket的升级。
yxxhero
2022/05/31
3.3K0
Nginx反向代理时保持长连接
HTTP1.1之后,HTTP协议支持持久连接,也就是长连接,优点在于在一个TCP连接上可以传送多个HTTP请求和响应,减少了建立和关闭连接的消耗和延迟。
星哥玩云
2022/07/28
3.2K0
Nginx代理WebSocket方法
前一篇文章讲了一下什么是WebSocket协议,这里在回顾一下,并且聊一聊如何用nginx来代理WebSocket。
没有故事的陈师傅
2022/04/05
6K0
Nginx之keepalive解读
keepalive是HTTP/1.1协议中的一个特性,它允许客户端和服务器之间的TCP连接在一个HTTP请求/响应周期结束后保持打开状态,以便在后续的请求中重复使用。这样可以减少TCP连接的建立和关闭次数,从而提高性能。
一个风轻云淡
2023/09/19
1K0
使用Nginx配置NodeJs程序(Windows平台)
简介 Nginx("engine x") 是一个高性能的 HTTP 和 反向代理 服务器,也是一个 IMAP/POP3/SMTP 服务器。 Nginx 是由 Igor Sysoev 为俄罗斯访问量第二的 Rambler.ru 站点开发的,第一个公开版本0.1.0发布于2004年10月4日。其将源代码以类BSD许可证的形式发布,因它的稳定性、丰富的功能集、示例配置文件和低系统资源的消耗而闻名。 安装 步骤:官网下载Nginx,解压到D盘目录,启动Nginx服务。 官网下载地址:http://nginx.org
磊哥
2018/05/08
2.1K0
一文带你搞懂Nginx如何配置Http、Https、WS、WSS!
作者个人研发的在高并发场景下,提供的简单、稳定、可扩展的延迟消息队列框架,具有精准的定时任务和延迟队列处理功能。自开源半年多以来,已成功为十几家中小型企业提供了精准定时调度方案,经受住了生产环境的考验。为使更多童鞋受益,现给出开源框架地址:
冰河
2021/03/09
13.6K1
【Nginx】Nginx部署实战——静态文件+反向代理+均衡负载+Https+Websocket
Nginx是一款是由俄罗斯的程序设计师Igor Sysoev所开发高性能的 Web和 反向代理 服务器,也是一个 IMAP/POP3/SMTP 代理服务器。前一段时间听说Igor Sysoev被俄罗斯警方带走了,不知道放出来了没有。言归正常,来看一下nginx的相关配置如何满足我们的日常需求吧。
DDGarfield
2022/06/23
2.4K0
基于websocket单台机器支持百万连接分布式聊天(IM)系统
使用golang实现websocket通讯,单机可以支持百万连接,使用gin框架、nginx负载、可以水平部署、程序内部相互通讯、使用grpc通讯协议。
link1st
2019/09/19
7.5K0
基于websocket单台机器支持百万连接分布式聊天(IM)系统
nginx被动检测
随着应用越来越多,tomcat容器也越来越重,随之而来的是tomcat宕机越来越频繁。最终选择jar包部署测试反向代理的效果。虽然jar包部署之后项目肯定会稳定很多。但是nginx宕机检测还是要做的。在本地调试发现并没有出现什么问题。就将nginx部署到了灰度环境。在项目跑起来之后我们直接关闭了其中一个项目。按照nginx反向代理的被动检测机制应该还是可以返回正常的数据。但是我们发现灰度的nginx宕机检测花费了21秒。这个时间有点太大了,用户估计要爆炸。想了好多也没找到问题。下面记录一下自己的狗血经历。
写一点笔记
2020/08/25
6430
nginx被动检测
ES-nginx 长连接和权限配置
长连接配置 events { worker_connections 1024; } http { keepalive_timeout 120s 120s; keepalive_requests 10000; upstream elasticsearch { server 127.0.0.1:9200; keepalive 15; } server { listen 8080; location / { proxy_pa
YG
2018/05/23
2.9K0
Nginx支持WebSocket反向代理-学习小结
WebSocket是目前比较成熟的技术了,WebSocket协议为创建客户端和服务器端需要实时双向通讯的webapp提供了一个选择。其为HTML5的一部分,WebSocket相较于原来开发这类app的方法来说,其能使开发更加地简单。大部分现在的浏览器都支持WebSocket,比如Firefox,IE,Chrome,Safari,Opera,并且越来越多的服务器框架现在也同样支持WebSocket。
洗尽了浮华
2018/08/22
3K0
Nginx支持WebSocket反向代理-学习小结
【Nginx】面试官问我Nginx如何配置WebSocket?我给他现场演示了一番!!
作者个人研发的在高并发场景下,提供的简单、稳定、可扩展的延迟消息队列框架,具有精准的定时任务和延迟队列处理功能。自开源半年多以来,已成功为十几家中小型企业提供了精准定时调度方案,经受住了生产环境的考验。为使更多童鞋受益,现给出开源框架地址:
冰河
2020/10/29
1.1K0
Nginx-正反向代理及负载均衡
目录 正/反向代理 代理的方式 Nginx代理服务支持的协议 代理实战 部署web01 部署Lb01 Nginx代理常用参数 添加发往后端服务器的请求头信息 代理到后端的TCP连接、响应、返回等超时时间 proxy_buffer代理缓冲区 配置代理优化文件 负载均衡 负载均衡的架构 负载均衡的实现 连接池 实现步骤 负载均衡的比例 轮询 权重 ip_hash 负载均衡后端状态 down backup max_fails、fail_timeout proxy_next_upstream监控的错误类型 负载均衡
HammerZe
2022/03/25
4930
Nginx-正反向代理及负载均衡
Nginx安装、实现反向代理及深度优化
一、Nginx的安装 关于Nginx的基本概念,在之前的博文中:https://blog.51cto.com/14227204/2464167 有详细的介绍,这篇博文就直接从安装开始谈起。
小手冰凉
2020/02/11
3K0
Nginx安装、实现反向代理及深度优化
HTTPS站点使用WebSocket的错误及解决方案
第一个问题:在https站点下,使用ws://im.joshua317.com 报错,报错信息如下:
joshua317
2021/09/08
11.5K0
Nginx反向代理配置
反向代理(Reverse Proxy)是一种网络服务器的部署模式,其代理请求的方向与正常的代理服务器相反,即客户端发送请求时,请求先到达反向代理服务器,然后再由反向代理服务器将请求转发到目标服务器,最后将响应发送回客户端。
灬沙师弟
2023/07/08
1.1K0
Nginx反向代理配置
Nginx学习笔记(三) 常用的配置
Nginx作为工作中常用的反向代理服务器,其配置我们是必须要熟悉的。今天主要介绍一下nginx的基本配置有哪些,以及这些配置的含义。首先我们看一下简单的nginx配置文件。
写一点笔记
2022/08/11
3940
相关推荐
go-websocket 分布式IM
更多 >
领券
💥开发者 MCP广场重磅上线!
精选全网热门MCP server,让你的AI更好用 🚀
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验