可扩展性:
scale up:向上扩展
sclae out: 向外扩展
Cluster: 集群
构建高扩展性系统的重要原则:在系统内部尽量避免串行化和交互
高可用性:99% 99.9% 99.999%
# 集群的基本术语:
调度器(director): dispatcher balancer
HA: High Availability
MTBF: 平均无故障时间
MTTR: 平均恢复前时间(故障时间)
总时间: 无故障时间/总时间
指标A: MTBF/(MTBF+MTTR) #值越高 高可用越好
LB: Load Balancing
CDN: Content Delivery Network
LB: 扩展、伸缩
HA:高可用
HP:High Performance
向量机
并行处理集群
LB: (应用层、传输层)
软件:
lvs (传输层)
haproxy, nginx (应用层)
硬件:
F5 BIG-IP
Citrix Netscaler
A10 A10
Array
Redware
HA:
heartbeat
corosync + pacemaker
RHCS: cman + rgmanager
cman + pacemaker
keepalived
HA:
heartbeat
corosync + pacemaker
RHCS: cman + rgmanager
cman + pacemaker
keepalived
HP:
hadoop
LVS,全称Linux Virtual Server,是国人章文嵩发起的一个开源项目。
在社区具有很大的热度,是一个基于四层、具有强大性能的反向代理服务器。
早期使用lvs需要修改内核才能使用,但是由于性能优异,现在已经被收入内核。
早期使用lvs需要修改内核才能使用,但是由于性能优异,现在已经被收入内核。
LVS通过工作于内核的ipvs模块来实现功能,其主要工作于netfilter 的INPUT链上。
而用户需要对ipvs进行操作配置则需要使用ipvsadm这个工具。
ipvsadm主要用于设置lvs模型、调度方式以及指定后端主机。
调度器:Director
,又称为Dispatcher,Balancer
. 调度器主要用于接受用户请求。Real Server
,简称为RS。用于真正处理用户的请求。VIP
:向外部直接面向用户请求,作为用户请求的目标的IP地址DIP
:Director Server IP,主要用于和内部主机通讯的IP地址RIP
:Real Server IP,后端服务器的IP地址CIP
:Client IP,访问客户端的IP地址当用户向负载均衡调度器(Director Server
)发起请求,调度器将请求发往至内核空间PREROUTING
链首先会接收到用户请求,判断目标IP确定是本机IP,将数据包发往INPUT
链IPVS
是工作在INPUT
链上的,
当用户请求到达INPUT
时,IPVS
会将用户请求和自己已定义好的集群服务进行比对,如果用户请求的就是定义的集群服务,那么此时IPVS
会强行修改数据包里的目标IP地址及端口,并将新的数据包发往POSTROUTING
链POSTROUTING
链接收数据包后发现目标IP地址刚好是自己的后端服务器,那么此时通过选路,将数据包最终发送给后端的服务器
LVS 由2部分程序组成,包括 ipvs 和 ipvsadm。
原生只有3种模式(NAT,TUN,DR), fullnat工作模式默认不支持
LVS是四层负载均衡,也就是说建立在OSI模型的第四层——传输层之上,传输层上有我们熟悉的TCP/UDP,LVS支持TCP/UDP的负载均衡。因为LVS是四层负载均衡,因此它相对于其它高层负载均衡的解决办法,比如DNS域名轮流解析、应用层负载的调度、客户端的调度等,它的效率是非常高的。
LVS的IP负载均衡技术是通过IPVS模块来实现的,IPVS是LVS集群系统的核心软件,它的主要作用是:安装在Director Server
上,同时在Director Server
上虚拟出一个IP地址,用户必须通过这个虚拟的IP地址访问服务。这个虚拟IP一般称为LVS的VIP,即Virtual IP
。访问的请求首先经过VIP到达负载调度器,然后由负载调度器从Real Server
列表中选取一个服务节点响应用户的请求。 当用户的请求到达负载调度器后,调度器如何将请求发送到提供服务的Real Server
节点,而Real Server
节点如何返回数据给用户,是IPVS实现的重点技术,IPVS实现负载均衡机制有几种,分别是NAT、DR、TUN及FULLNAT。
重点将请求报文的目标MAC地址设定为挑选出的RS的MAC地址
Director Server
,此时请求的数据报文会先到内核空间的PREROUTING
链。 此时报文的源IP为CIP,目标IP为VIPPREROUTING
检查发现数据包的目标IP是本机,将数据包送至INPUT链POSTROUTING
链。 此时的源IP和目的IP均未修改,仅修改了源MAC地址为DIP的MAC地址,目标MAC地址为RIP的MAC地址POSTROUTING
链检查目标MAC地址为RIP的MAC地址,那么此时数据包将会发至Real Server
。LVS DR模型特点:
Director Server
,而不是RSDirector Server
必须在同一个物理网络中Director Server
,但响应报文必须不能进过Director Server
特点1的解决方案:
Director Server
arptables
:在arp的层次上实现在ARP解析时做防火墙规则,过滤RS响应ARP请求。这是由iptables
提供的arp_ignore
和arp_announce
)将RS上的VIP配置在lo接口的别名上,并限制其不能响应对VIP地址解析请求。DR(
Direct Routing
直接路由模式)此模式时LVS 调度器只接收客户发来的请求并将请求转发给后端服务器,后端服务器处理请求后直接把内容直接响应给客户,而不用再次经过LVS调度器。LVS只需要将网络帧的MAC地址修改为某一台后端服务器RS的MAC,该包就会被转发到相应的RS处理,注意此时的源IP和目标IP都没变。RS收到LVS转发来的包时,链路层发现MAC是自己的,到上面的网络层,发现IP也是自己的,于是这个包被合法地接受,RS感知不到前面有LVS的存在。而当RS返回响应时,只要直接向源IP(即用户的IP)返回即可,不再经过LVS。
Director
:1. 在前端网关做静态绑定;
2. 在RS上使用arptables;
3. 在RS上修改内核参数以限制arp通告及应答级别;
arp_announce
arp_ignore
Director
;Director
要在同一个物理网络;Director
,但响应不能经由Director
,而是由RS直接发往Client;缺点:唯一的缺陷在于它要求LVS 调度器及所有应用服务器在同一个网段中,因此不能实现集群的跨网段应用。 优点:可见在处理过程中
LVS Route
只处理请求的直接路由转发,所有响应结果由各个应用服务器自行处理,并对用户进行回复,网络流量将集中在LVS调度器之上。
重点理解NAT方式的实现原理和数据包的改变。
Director Server
,此时请求的数据报文会先到内核空间的PREROUTING
链。 此时报文的源IP为CIP,目标IP为VIPPREROUTING
检查发现数据包的目标IP是本机,将数据包送至INPUT
链POSTROUTING
链。 此时报文的源IP为CIP,目标IP为RIPPOSTROUTING
链通过选路,将数据包发送给Real Server
Real Server
比对发现目标为自己的IP,开始构建响应报文发回给Director Server
。 此时报文的源IP为RIP,目标IP为CIPDirector Server
在响应客户端前,此时会将源IP地址修改为自己的VIP地址,然后响应给客户端。 此时报文的源IP为VIP,目标IP为CIPLVS NAT模型特性:
Director Server
,高负载场景中,Director Server
易成为性能瓶颈Director Server
压力会比较大,请求和响应都需经过director server
NAT(Network Address Translation 网络地址转换)是一种外网和内外地址映射的技术,内网可以是私有网址,外网可以使用NAT方法修改数据报头,让外网与内网能够互相通信。NAT模式下,网络数据报的进出都要经过LVS的处理。LVS需作为RS(真实服务器)的网关。当包到达LVS时,LVS做目标地址转换(DNAT),将目标IP改为RS的IP。RS接收到包以后,仿佛是客户端直接发给它的一样。RS处理完,返回响应时,源IP是RS IP,目标IP是客户端的IP。这时RS的包通过网(LVS)中转,LVS会做源地址转换(SNAT),将包的源地址改为VIP,这样,这个包对客户端看起来就仿佛是LVS直接返回给它的。客户端无法感知到后端RS的存在。
Director
转发;Director
易于成为系统瓶颈;在原有的IP报文外再次封装多一层IP首部,内部IP首部(源地址为CIP,目标IIP为VIP),外层IP首部(源地址为DIP,目标IP为RIP)
Director Server
,此时请求的数据报文会先到内核空间的PREROUTING
链。 此时报文的源IP为CIP,目标IP为VIP 。PREROUTING
检查发现数据包的目标IP是本机,将数据包送至INPUT链POSTROUTING
链。 此时源IP为DIP,目标IP为RIPPOSTROUTING
链根据最新封装的IP报文,将数据包发至RS(因为在外层封装多了一层IP首部,所以可以理解为此时通过隧道传输)。 此时源IP为DIP,目标IP为RIPLVS TUN模型特点:
Director Server
,但响应报文必须不能进过Director Server
企业中最常用的是 DR 实现方式,而 NAT 配置上比较简单和方便,之后实践中会总结 DR 和 NAT 具体使用配置过程。 TUN(virtual server via ip tunneling IP 隧道)调度器把请求的报文通过IP隧道转发到真实的服务器。真实的服务器将响应处理后的数据直接返回给客户端。这样调度器就只处理请求入站报文。此转发方式不修改请求报文的IP首部(源IP为CIP,目标IP为VIP),而在原IP报文之外再封装一个IP首部(源IP是DIP,目标IP是RIP),将报文发往挑选出的目标RS;RS直接响应给客户端(源IP是VIP,目标IP是CIP),由于一般网络服务应答数据比请求报文大很多,采用lvs-tun模式后,集群系统的最大吞吐量可以提高10倍
Director
,但响应不能经由Director
;缺点:由于后端服务器RS处理数据后响应发送给用户,此时需要租借大量IP(特别是后端服务器使用较多的情况下)。 优点:实现lvs-tun模式时,LVS 调度器将TCP/IP请求进行重新封装并转发给后端服务器,由目标应用服务器直接回复用户。应用服务器之间是通过IP 隧道来进行转发,故两者可以存在于不同的网段中。
lvs-fullnat工作模式默认不支持
server info | VS/NAT | VS/TUN | VS/DR |
---|---|---|---|
server | any | tunneling | non-arp device |
server network | private | LAN/WAN | LAN |
server number | low(10~20) | high | high |
server gateway | load balance | own router | own router |
特点 | NAT模型 | IPIP模型 | DR模型 |
---|---|---|---|
对服务器的要求 | 服务节点可以使任何操作系统 | 必须支持 IP 隧道,目前只有 Linux 系统支持 | 服务器节点支持虚拟网卡设备,能够禁用设备的 ARP 响应 |
网络要求 | 拥有私有 IP 地址的局域网络 | 拥有合法 IP 地址的局域,网或广域网 | 拥有合法 IP 地址的局域,服务器节点与负载均衡器必须在同一个网段 |
通常支持节点数量 | 10 到 20 个,根据负载均衡器的处理能力而定 | 较高,可以支持 100 个服务节点 | 较高,可以支持 100 个服务节点 |
网关 | 负载均衡器为服务器节点网关 | 服务器的节点同自己的网关或者路由器连接,不经过负载均衡器 | 服务节点同自己的网关或者路由器连接,不经过负载均衡器 |
服务节点安全性 | 较好,采用内部 IP,服务节点隐蔽 | 较差,采用公用 IP 地址,节点安全暴露 | 较差,采用公用 IP 地址,节点安全暴露 |
IP 要求 | 仅需要一个合法的 IP 地址作为 VIP 地址 | 除了 VIPO 地址外,每个服务器界定啊需要拥有合法的 IP 地址,可以直接从路由到客户端 | 除了 VIP 外,每个服务节点需拥有合法的 IP 地址,可以直接从路由到客户端 |
特点 | 地址转换 | 封装 IP | 修改 MAC 地址 |
配置复杂度 | 简单 | 复杂 | 复杂 |
DR模式、IP TUN模式都是在包进入的时候经过LVS,在包返回的时候直接返回给client;所以二者的性能比NAT高
但TUN模式更加复杂,所以性能不如DR
FULLNAT模式不仅更换目的IP还更换了源IP,所以性能比NAT下降10%
性能比较:
DR > TUN > NAT > FULLNAT
调度器通过轮叫
调度算法将外部请求按顺序轮流分配到集群中的真实服务器上,它均等地对待每一台服务器,而不管服务器上实际的连接数和系统负载。
大锅饭调度:rr - 纯轮询方式,比较垃圾。把每项请求按顺序在真正服务器中分派
调度器通过加权轮叫
调度算法根据真实服务器的不同处理能力来调度访问请求。这样可以保证处理能力强的服务器能处理更多的访问流量。调度器可以自动问询真实服务器的负载情况,并动态地调整其权值。
带权重的大锅饭调度:wrr
-带权重轮询方式。把每项请求按顺序在真正服务器中循环分派,但是给能力较大的服务器分派较多的作业。
目标地址散列
调度算法根据请求的目标IP地址,作为散列键(Hash Key)从静态分配的散列表找出对应的服务器,若该服务器是可用的且未超载,将请求发送到该服务器,否则返回空。
目标散列调度:realserver
中绑定两个ip。ld判断来者的ISP商,将其转到相应的IP。
源地址散列
调度算法根据请求的源IP地址,作为散列键(Hash Key)从静态分配的散列表找出对应的服务器,若该服务器是可用的且未超载,将请求发送到该服务器,否则返回空。了解这些算法原理能够在特定的应用场合选择最适合的调度算法,从而尽可能地保持Real Server
的最佳利用性。当然也可以自行开发算法,不过这已超出本文范围,请参考有关算法原理的资料。
源散列调度:源地址散列。基于client地址的来源区分。(用的很少)
调度器通过最少连接
调度算法动态地将网络请求调度到已建立的链接数最少的服务器上。如果集群系统的真实服务器具有相近的系统性能,采用“最小连接”调度算法可以较好地均衡负载。
谁不干活就给谁分配:lc - 根据最小连接数分派
在集群系统中的服务器性能差异较大的情况下,调度器采用加权最少链接
调度算法优化负载均衡性能,具有较高权值的服务器将承受较大比例的活动连接负载。调度器可以自动问询真实服务器的负载情况,并动态地调整其权值。
带权重的谁不干活就给谁分配:wlc - 带权重的。机器配置好的权重高
基于wlc算法。这个必须举例来说了ABC三台机器分别权重123 ,连接数也分别是123。那么如果使用WLC算法的话一个新请求进入时它可能会分给ABC中的任意一个。使用sed算法后会进行这样一个运算A:(1+1)/1B:(1+2)/2C:(1+3)/3根据运算结果,把连接交给C 。
无需队列。如果有台realserver的连接数=0就直接分配过去,不需要在进行sed运算。
基于局部性的最少链接
调度算法是针对目标IP地址的负载均衡,目前主要用于Cache集群系统。该算法根据请求的目标IP地址找出该目标IP地址最近使用的服务器,若该服务器是可用的且没有超载,将请求发送到该服务器;若服务器不存在,或者该服务器超载且有服务器处于一半的工作负载,则用“最少链接” 的原则选出一个可用的服务器,将请求发送到该服务器。
基于地区的最少连接调度:lblc - 缓存服务器集群。基于本地的最小连接。把请求传递到负载小的服务器上
带复制的基于局部性最少链接
调度算法也是针对目标IP地址的负载均衡,目前主要用于Cache集群系统。它与LBLC算法的不同之处是它要维护从一个目标 IP地址到一组服务器的映射,而LBLC算法维护从一个目标IP地址到一台服务器的映射。该算法根据请求的目标IP地址找出该目标IP地址对应的服务器组,按“最小连接”原则从服务器组中选出一台服务器,若服务器没有超载,将请求发送到该服务器;若服务器超载,则按“最小连接”原则从这个集群中选出一台服务器,将该服务器加入到服务器组中,将请求发送到该服务器。同时,当该服务器组有一段时间没有被修改,将最忙的服务器从服务器组中删除,以降低复制的程度。
带有复制调度的基于地区的最少连接调度:lblcr - 带复制调度的缓存服务器集群。某页面缓存在服务器A上,被访问次数极高,而其他缓存服务器负载较低,监视是否访问同一页面,如果是访问同一页面则把请求分到其他服务器。
版权属于:龙之介大人
本文链接:https://cloud.tencent.com/developer/article/1619664
本站所有原创文章采用知识共享署名-非商业性使用-相同方式共享 4.0 国际许可协议进行许可。 您可以自由的转载和修改,但请务必注明文章来源和作者署名并说明文章非原创且不可用于商业目的。