前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >实战 | Nginx+keepalived 实现高可用集群

实战 | Nginx+keepalived 实现高可用集群

原创
作者头像
开源Linux
修改2020-05-11 14:19:01
1.4K0
修改2020-05-11 14:19:01
举报
文章被收录于专栏:开源Linux

前言

今天通过两个实战案例,带大家理解Nginx+keepalived 如何实现高可用集群,在学习新知识之前您可以选择性复习之前的知识点:

给小白的 Nginx 10分钟入门指南

Nginx编译安装及常用命令

Nginx 配置文件详解

一文带你读懂Nginx反向代理

一文彻底读懂nginx中的location指令

Nginx负载均衡原理及配置实例

Nginx为什么快到根本停不下来?

Keepalived入门学习

Keepalived高可用服务配置实例

Nginx+Keepalived 高可用集群(主从模式)

集群架构图

注意:Keepalived服务器同样是nginx负载均衡器。

1、准备四台机器

本实验系统均使用Centos 7.5,在所有节点进行以下操作:

代码语言:txt
复制
// 查看操作系统
[root@LB-01 ~]# cat /etc/redhat-release
CentOS Linux release 7.5.1804 (Core)

//关闭并禁用防火墙
[root@LB-01 ~]# systemctl stop firewalld
[root@LB-01 ~]# systemctl disable firewalld

//关闭selinux
[root@LB-01 ~]# sed -i 's/^SELINUX=.*/SELINUX=disabled/' /etc/sysconfig/selinux
[root@LB-01 ~]# setenforce 0

//安装nginx
yum -y install nginx
  若提示,无安装包,则需要安装epel扩展源:
   yum -y install epel-release 

2、配置后端web服务器

2.1)修改web01节点网站根目录默认文件

代码语言:txt
复制
[root@web01 ~]# echo "<h1>web01 192.168.1.34</h1>" > /usr/share/nginx/html/index.html

2.2)修改web02节点网站根目录默认文件

代码语言:txt
复制
[root@web01 ~]# echo "<h1>web01 192.168.1.34</h1>" > /usr/share/nginx/html/index.html

通过nginx主配置文件,可以看出nginx网站根目录文件默认是:/usr/share/nginx,如下:

2.3)启动nginx服务

代码语言:txt
复制
//web01
[root@web01 ~]# systemctl start nginx

//web02
[root@web02 ~]# systemctl start nginx

2.4)验证

主机web01和web02已配置成web服务器

3、配置LB服务器

LB服务器需同时部署nginx和Keepalived服务,以下操作均在两台LB节点执行:

3.1)配置nginx反向代理服务

代码语言:txt
复制
  编辑nginx主配置文件:`/etc/nginx/nginx.conf`

启动nginx服务;验证效果:

访问LB01:

访问LB02:

如图所示,LB01和LB02均可轮询访问后端web节点,即表示nginx LB集群搭建成功。

3.2)配置Keepalived服务

(1)安装Keepalived

代码语言:txt
复制
yum -y install keepalived

(2)配置Keepalived服务

这里直接提供LB01与LB02两者配置文件差异对比,方便读者阅读:

代码语言:txt
复制
vim /etc/keepalived/keepalived.con
左:LB01 右:LB02
左:LB01 右:LB02

(3)谁是主Keepalived?

通过上图得知,LB01优先级高于LB02,因此VIP绑定在LB01上:

代码语言:txt
复制
[root@LB-01 ~]# ip a | grep 192.168.1.110
    inet 192.168.1.110/24 scope global secondary eth0:1
4、域名解析

由于不是真实环境,域名使用www.test.com用作测试,所以www.test.com的解析只能在客户机hosts文件设置。具体步骤如下:

打开:

C:\Windows\System32\drivers\etc\hosts

在末尾添加:

192.168.1.110 www.test.com

注意:这里的IP指定的是浮动IP,即通过客户端通过VIP访问web业务

5、测试验证


关闭LB01节点的keepalived服务。再次访问:

发现已然可以通过域名进行访问,只是此时VIP已绑定在LB02上,如下所示:

代码语言:txt
复制
[root@LB-02 ~]# ip a | grep 192.168.1.110
    inet 192.168.1.110/24 scope global secondary eth0:1
[root@LB-02 ~]#

到此,Nginx+Keepalived 高可用集群(主从)就搭建完成了。

Nginx+Keepalived 高可用集群(双主模式)

将keepalived做成双主模式,其实很简单,就是再配置一段新的vrrp_instance(实例)规则。

集群架构图:

说明:还按照上面的环境继续做实验,只是修改LB节点上面的keepalived服务的配置文件即可。

此时LB-01节点既为Keepalived的主节点也为备节点,LB-02节点同样既为Keepalived的主节点也为备节点。

LB-01节点默认的主节点VIP(192.168.1.110),LB-02节点默认的主节点VIP(192.168.1.210)

1、配置 LB-01 节点

代码语言:txt
复制
增加一段vrrp_instance VI_2实例规则:

vim /etc/keepalived/keepalived.conf

2、配置 LB02 节点

vim /etc/keepalived/keepalived.conf

3、重启Keepalived服务

代码语言:txt
复制
//LB-01
[root@LB-01 ~]# systemctl restart keepalived

//LB-02
[root@LB-02 ~]# systemctl restart keepalived

4、查看VIP绑定情况

代码语言:txt
复制
//LB-01
[root@LB-01 ~]# ip a
...
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq 
    inet 192.168.1.31/24 brd 10.43.1.255 scope global eth0
    inet 192.168.1.110/24 scope global secondary eth0:1

//LB-02
[root@LB-02 ~]# ip a
...
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq 
    inet 192.168.1.32/24 brd 10.43.1.255 scope global eth0
    inet 192.168.1.210/24 scope global secondary eth0:2

5、高可靠验证

代码语言:txt
复制
 停止LB-01节点的keepalived再次测试
代码语言:txt
复制
此时VIP都绑定在LB-02上
代码语言:txt
复制
[root@LB-02 ~]# ip a
...
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq 
    inet 192.168.1.32/24 brd 10.43.1.255 scope global eth0
    inet 192.168.1.110/24 scope global secondary eth0:1
    inet 192.168.1.210/24 scope global secondary eth0:2

测试可以发现我们访问keepalived中配置的两个VIP都可以正常调度,当我们停止任意一台keepalived节点,同样还是正常访问;到此,nginx+keepalived+高可用集群(双主模式)就搭建完成了。

编写Nginx Web服务的守护脚本

以上实验测试有一个问题就是,我们是用Nginx做负载均衡分发请求的数据包的。如果主节点的Keepalived服务正常运行,而Nginx运行异常,那么将会出现Nginx负载均衡服务失灵,无法切换到Nginx负载均衡器02上,后端的Web服务器无法收到请求。所以,我们应该要检测Nginx的服务是否正常运行,如果不是正常运行,应该停掉Keepalived的服务,这样才能自动切换到备节点上。

我们可以通过检测80端口是否开启来判定Nginx的运行情况,2秒钟检测一次,脚本如下:

代码语言:txt
复制
#!/bin/bash
while true
do
if [ $(netstat -tlnp|grep nginx|wc -l) -ne 1 ]
then
    /etc/init.d/keepalived stop
fi
sleep 2
done

结语

欢迎关注微信公众号『开源Linux』,专注于分享Linux/Unix相关内容,包括Linux运维、Linux系统开发、网络编程、以及虚拟化和云计算等技术干货。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 前言
  • Nginx+Keepalived 高可用集群(主从模式)
    • 集群架构图
      • 1、准备四台机器
        • 2、配置后端web服务器
          • 3、配置LB服务器
            • 4、域名解析
          • 5、测试验证
          • Nginx+Keepalived 高可用集群(双主模式)
            • 集群架构图:
              • 1、配置 LB-01 节点
                • 2、配置 LB02 节点
              • 3、重启Keepalived服务
                • 4、查看VIP绑定情况
                  • 5、高可靠验证
                  • 编写Nginx Web服务的守护脚本
                  • 结语
                  相关产品与服务
                  负载均衡
                  负载均衡(Cloud Load Balancer,CLB)提供安全快捷的四七层流量分发服务,访问流量经由 CLB 可以自动分配到多台后端服务器上,扩展系统的服务能力并消除单点故障。轻松应对大流量访问场景。 网关负载均衡(Gateway Load Balancer,GWLB)是运行在网络层的负载均衡。通过 GWLB 可以帮助客户部署、扩展和管理第三方虚拟设备,操作简单,安全性强。
                  领券
                  问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档