1. keepalived简介

1.1 keepalived是什么?

Keepalived 软件起初是专为LVS负载均衡软件设计的,用来管理并监控LVS集群系统中各个服务节点的状态,后来又加入了可以实现高可用的VRRP功能。因此,Keepalived除了能够管理LVS软件外,还可以作为其他服务(例如:Nginx、Haproxy、MySQL等)的高可用解决方案软件。

Keepalived软件主要是通过VRRP协议实现高可用功能的。VRRP是Virtual Router RedundancyProtocol(虚拟路由器冗余协议)的缩写,VRRP出现的目的就是为了解决静态路由单点故障问题的,它能够保证当个别节点宕机时,整个网络可以不间断地运行。

所以,Keepalived 一方面具有配置管理LVS的功能,同时还具有对LVS下面节点进行健康检查的功能,另一方面也可实现系统网络服务的高可用功能。

keepalived官网

1.2 keepalived的重要功能

keepalived 有三个重要的功能,分别是:

管理LVS负载均衡软件
实现LVS集群节点的健康检查
作为系统网络服务的高可用性(failover)

1.3 keepalived高可用故障转移的原理

Keepalived 高可用服务之间的故障切换转移,是通过 VRRP (Virtual Router Redundancy Protocol ,虚拟路由器冗余协议)来实现的。

在 Keepalived 服务正常工作时,主 Master 节点会不断地向备节点发送(多播的方式)心跳消息,用以告诉备 Backup 节点自己还活看,当主 Master 节点发生故障时,就无法发送心跳消息,备节点也就因此无法继续检测到来自主 Master 节点的心跳了,于是调用自身的接管程序,接管主 Master 节点的 IP 资源及服务。而当主 Master 节点恢复时,备 Backup 节点又会释放主节点故障时自身接管的IP资源及服务,恢复到原来的备用角色。

那么,什么是VRRP呢?
VRRP ,全 称 Virtual Router Redundancy Protocol ,中文名为虚拟路由冗余协议 ,VRRP的出现就是为了解决静态踣甶的单点故障问题,VRRP是通过一种竞选机制来将路由的任务交给某台VRRP路由器的。

1.4.1 keepalived高可用架构图

1.4.2 keepalived工作原理描述

Keepalived高可用对之间是通过VRRP通信的,因此,我们从 VRRP开始了解起:

  1. VRRP,全称 Virtual Router Redundancy Protocol,中文名为虚拟路由冗余协议,VRRP的出现是为了解决静态路由的单点故障。
  2. VRRP是通过一种竟选协议机制来将路由任务交给某台 VRRP路由器的。
  3. VRRP用 IP多播的方式(默认多播地址(224.0_0.18))实现高可用对之间通信。
  4. 工作时主节点发包,备节点接包,当备节点接收不到主节点发的数据包的时候,就启动接管程序接管主节点的开源。备节点可以有多个,通过优先级竞选,但一般 Keepalived系统运维工作中都是一对。
  5. VRRP使用了加密协议加密数据,但Keepalived官方目前还是推荐用明文的方式配置认证类型和密码。

介绍完 VRRP,接下来我再介绍一下 Keepalived服务的工作原理:

  • Keepalived高可用是通过 VRRP 进行通信的, VRRP是通过竞选机制来确定主备的,主的优先级高于备,因此,工作时主会优先获得所有的资源,备节点处于等待状态,当主挂了的时候,备节点就会接管主节点的资源,然后顶替主节点对外提供服务。
  • 在 Keepalived 服务之间,只有作为主的服务器会一直发送 VRRP 广播包,告诉备它还活着,此时备不会枪占主,当主不可用时,即备监听不到主发送的广播包时,就会启动相关服务接管资源,保证业务的连续性.接管速度最快可以小于1秒。

2. keepalived配置文件讲解

2.1 keepalived默认配置文件

keepalived 的主配置文件是 /etc/keepalived/keepalived.conf。其内容如下:

[root@master ~]# cat /etc/keepalived/keepalived.conf
! Configuration File for keepalivedglobal_defs {       //全局配置notification_email {     //定义报警收件人邮件地址acassen@firewall.locfailover@firewall.locsysadmin@firewall.loc}notification_email_from Alexandre.Cassen@firewall.loc    //定义报警发件人邮箱smtp_server 192.168.200.1    //邮箱服务器地址smtp_connect_timeout 30      //定义邮箱超时时间router_id LVS_DEVEL          //定义路由标识信息,同局域网内唯一vrrp_skip_check_adv_addrvrrp_strictvrrp_garp_interval 0vrrp_gna_interval 0
}vrrp_instance VI_1 {        //定义实例state MASTER            //指定keepalived节点的初始状态,可选值为MASTER|BACKUPinterface eth0          //VRRP实例绑定的网卡接口,用户发送VRRP包virtual_router_id 51    //虚拟路由的ID,同一集群要一致priority 100            //定义优先级,按优先级来决定主备角色,优先级越大越优先nopreempt               //设置不抢占advert_int 1            //主备通讯时间间隔authentication {        //配置认证auth_type PASS      //认证方式,此处为密码auth_pass 1111      //同一集群中的keepalived配置里的此处必须一致,推荐使用8位随机数}virtual_ipaddress {     //配置要使用的VIP地址192.168.200.16}
}virtual_server 192.168.200.16 1358 {    //配置虚拟服务器delay_loop 6        //健康检查的时间间隔lb_algo rr          //lvs调度算法lb_kind NAT         //lvs模式persistence_timeout 50      //持久化超时时间,单位是秒protocol TCP        //4层协议sorry_server 192.168.200.200 1358   //定义备用服务器,当所有RS都故障时用sorry_server来响应客户端real_server 192.168.200.2 1358 {    //定义真实处理请求的服务器weight 1    //给服务器指定权重,默认为1HTTP_GET {url {path /testurl/test.jsp    //指定要检查的URL路径digest 640205b7b0fc66c1ea91c463fac6334d   //摘要信息}url {path /testurl2/test.jspdigest 640205b7b0fc66c1ea91c463fac6334d}url {path /testurl3/test.jspdigest 640205b7b0fc66c1ea91c463fac6334d}connect_timeout 3       //连接超时时间nb_get_retry 3          //get尝试次数delay_before_retry 3    //在尝试之前延迟多长时间}}real_server 192.168.200.3 1358 {weight 1HTTP_GET {url {path /testurl/test.jspdigest 640205b7b0fc66c1ea91c463fac6334c}url {path /testurl2/test.jspdigest 640205b7b0fc66c1ea91c463fac6334c}connect_timeout 3nb_get_retry 3delay_before_retry 3}}
}

2.2 定制主配置文件

vrrp_instance段配置

nopreempt   //设置为不抢占。默认是抢占的,当高优先级的机器恢复后,会抢占低优先 \
级的机器成为MASTER,而不抢占,则允许低优先级的机器继续成为MASTER,即使高优先级 \
的机器已经上线。如果要使用这个功能,则初始化状态必须为BACKUP。preempt_delay   //设置抢占延迟。单位是秒,范围是0---1000,默认是0.发现低优先 \
级的MASTER后多少秒开始抢占。

vrrp_script段配置

//作用:添加一个周期性执行的脚本。脚本的退出状态码会被调用它的所有的VRRP Instance记录。
//注意:至少有一个VRRP实例调用它并且优先级不能为0.优先级范围是1-254.
vrrp_script <SCRIPT_NAME> {...}//选项说明:
script "/path/to/somewhere"      //指定要执行的脚本的路径。
interval <INTEGER>              //指定脚本执行的间隔。单位是秒。默认为1s。
timeout <INTEGER>               //指定在多少秒后,脚本被认为执行失败。
weight <-254 --- 254>           //调整优先级。默认为2.
rise <INTEGER>                  //执行成功多少次才认为是成功。
fall <INTEGER>                  //执行失败多少次才认为失败。
user <USERNAME> [GROUPNAME]     //运行脚本的用户和组。
init_fail                       //假设脚本初始状态是失败状态。//weight说明:
1. 如果脚本执行成功(退出状态码为0),weight大于0,则priority增加。
2. 如果脚本执行失败(退出状态码为非0),weight小于0,则priority减少。
3. 其他情况下,priority不变。

real_server段配置

weight <INT>            //给服务器指定权重。默认是1
inhibit_on_failure      //当服务器健康检查失败时,将其weight设置为0, \//而不是从Virtual Server中移除
notify_up <STRING>      //当服务器健康检查成功时,执行的脚本
notify_down <STRING>    //当服务器健康检查失败时,执行的脚本
uthreshold <INT>        //到这台服务器的最大连接数
lthreshold <INT>        //到这台服务器的最小连接数

tcp_check段配置

connect_ip <IP ADDRESS>     //连接的IP地址。默认是real server的ip地址
connect_port <PORT>         //连接的端口。默认是real server的端口
bindto <IP ADDRESS>         //发起连接的接口的地址。
bind_port <PORT>            //发起连接的源端口。
connect_timeout <INT>       //连接超时时间。默认是5s。
fwmark <INTEGER>            //使用fwmark对所有出去的检查数据包进行标记。
warmup <INT>    //指定一个随机延迟,最大为N秒。可防止网络阻塞。如果为0,则关闭该功能。
retry <INIT>                //重试次数。默认是1次。
delay_before_retry <INT>    //默认是1秒。在重试之前延迟多少秒。

2.3 实例

global_defs {router_id LVS_Server
}
vrrp_instance VI_1 {state BACKUPinterface ens33virtual_router_id 51priority 150nopreemptadvert_int 1authentication {auth_type PASSauth_pass wangqing}virtual_ipaddress {  172.16.12.250 dev ens33}
}
virtual_server 172.16.12.250 80 {delay_loop 3lvs_sched rrlvs_method DRprotocol TCPreal_server 172.16.12.129 80 {weight 1TCP_CHECK {connect_port 80connect_timeout 3nb_get_retry 3delay_before_retry 3}}real_server 172.16.12.130 8080 {weight 1TCP_CHECK {connect_port 8080connect_timeout 3nb_get_retry 3delay_before_retry 3}}
}

3 脑裂

在高可用(HA)系统中,当联系2个节点的“心跳线”断开时,本来为一整体、动作协调的HA系统,就分裂成为2个独立的个体。由于相互失去了联系,都以为是对方出了故障。两个节点上的HA软件像“裂脑人”一样,争抢“共享资源”、争起“应用服务”,就会发生严重后果——或者共享资源被瓜分、2边“服务”都起不来了;或者2边“服务”都起来了,但同时读写“共享存储”,导致数据损坏(常见如数据库轮询着的联机日志出错)。
  
对付HA系统“裂脑”的对策,目前达成共识的的大概有以下几条:

添加冗余的心跳线,例如:双线条线(心跳线也HA),尽量减少“裂脑”发生几率;
启用磁盘锁。正在服务一方锁住共享磁盘,“裂脑”发生时,让对方完全“抢不走”共享磁盘资源。但使用锁磁盘也会有一个不小的问题,如果占用共享盘的一方不主动“解锁”,另一方就永远得不到共享磁盘。现实中假如服务节点突然死机或崩溃,就不可能执行解锁命令。后备节点也就接管不了共享资源和应用服务。于是有人在HA中设计了“智能”锁。即:正在服务的一方只在发现心跳线全部断开(察觉不到对端)时才启用磁盘锁。平时就不上锁了。
设置仲裁机制。例如设置参考IP(如网关IP),当心跳线完全断开时,2个节点都各自ping一下参考IP,不通则表明断点就出在本端。不仅“心跳”、还兼对外“服务”的本端网络链路断了,即使启动(或继续)应用服务也没有用了,那就主动放弃竞争,让能够ping通参考IP的一端去起服务。更保险一些,ping不通参考IP的一方干脆就自我重启,以彻底释放有可能还占用着的那些共享资源

3.1 脑裂产生的原因

一般来说,脑裂的发生,有以下几种原因:

高可用服务器对之间心跳线链路发生故障,导致无法正常通信
因心跳线坏了(包括断了,老化)
因网卡及相关驱动坏了,ip配置及冲突问题(网卡直连)
因心跳线间连接的设备故障(网卡及交换机)
因仲裁的机器出问题(采用仲裁的方案)
高可用服务器上开启了 iptables防火墙阻挡了心跳消息传输
高可用服务器上心跳网卡地址等信息配置不正确,导致发送心跳失败
其他服务配置不当等原因,如心跳方式不同,心跳广插冲突、软件Bug等
注意:

Keepalived配置里同一 VRRP实例如果 virtual_router_id两端参数配置不一致也会导致裂脑问题发生。

3.2 脑裂的常见解决方案

在实际生产环境中,我们可以从以下几个方面来防止裂脑问题的发生:

同时使用串行电缆和以太网电缆连接,同时用两条心跳线路,这样一条线路坏了,另一个还是好的,依然能传送心跳消息
当检测到裂脑时强行关闭一个心跳节点(这个功能需特殊设备支持,如Stonith、feyce)。相当于备节点接收不到心跳消患,通过单独的线路发送关机命令关闭主节点的电源
做好对裂脑的监控报警(如邮件及手机短信等或值班).在问题发生时人为第一时间介入仲裁,降低损失。例如,百度的监控报警短信就有上行和下行的区别。报警消息发送到管理员手机上,管理员可以通过手机回复对应数字或简单的字符串操作返回给服务器.让服务器根据指令自动处理相应故障,这样解决故障的时间更短.
  
当然,在实施高可用方案时,要根据业务实际需求确定是否能容忍这样的损失。对于一般的网站常规业务.这个损失是可容忍的

3.3 对脑裂进行监控

对脑裂的监控应在备用服务器上进行,通过添加zabbix自定义监控进行。
监控什么信息呢?监控备上有无VIP地址

备机上出现VIP有两种情况:

发生了脑裂
正常的主备切换
监控只是监控发生脑裂的可能性,不能保证一定是发生了脑裂,因为正常的主备切换VIP也是会到备上的。

监控脚本如下:

[root@slave ~]# mkdir -p /scripts && cd /scripts
[root@slave scripts]# vim check_keepalived.sh
#!/bin/bashif [ `ip a show ens33 |grep 172.16.12.250|wc -l` -ne 0 ]
thenecho "keepalived is error!"
elseecho "keepalived is OK !"
fi

编写脚本时要注意,网卡要改成你自己的网卡名称,VIP也要改成你自己的VIP,最后不要忘了给脚本赋予执行权限,且要修改/scripts目录的属主属组为zabbix

4. keepalived实现nginx负载均衡机高可用

环境说明

系统信息 主机名 IP
CentOS8 localhost 192.168.141.137
CentOS8 Client 192.168.141.140

本次高可用虚拟IP(VIP)地址暂定为 192.168.141.250

4.1 keepalived安装

配置主keepalived

//关闭防火墙与SELINUX
[root@localhost ~]# systemctl stop firewalld
[root@localhost ~]# systemctl disable firewalld
[root@localhost ~]# setenforce 0
[root@localhost ~]# sed -ri 's/^(SELINUX=).*/\1disabled/g' /etc/selinux/config//配置网络源,这个是CentOS8阿里云的源
[root@localhost ~]# wget -O /etc/yum.repos.d/CentOS-Base.repo https://mirrors.aliyun.com/repo/Centos-vault-8.5.2111.repo
[root@localhost ~]# sed -i -e '/mirrors.cloud.aliyuncs.com/d' -e '/mirrors.aliyuncs.com/d' /etc/yum.repos.d/CentOS-Base.repo
[root@localhost ~]# yum -y install epel-release vim wget gcc gcc-c++
安装过程略.....//安装keepalived
#先查看有没有keepalived
[root@localhost ~]# dnf list all | grep keepalived
Repository extras is listed more than once in the configuration
keepalived.x86_64                                                 2.1.5-9.el8                                                appstream
#没有keepalived就安装epel-release
[root@localhost ~]# dnf -y install epel-release[root@localhost ~]# yum -y install keepalived//查看安装生成的文件
[root@localhost ~]# rpm -ql keepalived
/etc/keepalived     //配置目录
/etc/keepalived/keepalived.conf     //此为主配置文件
/etc/sysconfig/keepalived
/usr/bin/genhash
/usr/lib/systemd/system/keepalived.service      //此为服务控制文件
/usr/libexec/keepalived
/usr/sbin/keepalived
.....此处省略N行

用同样的方法在备服务器上安装keepalived

//关闭防火墙与SELINUX
[root@Client ~]# systemctl stop firewalld
[root@Client ~]# systemctl disable firewalld
Removed symlink /etc/systemd/system/multi-user.target.wants/firewalld.service.
Removed symlink /etc/systemd/system/dbus-org.fedoraproject.FirewallD1.service.
[root@Client ~]# setenforce 0
[root@Client ~]# sed -ri 's/^(SELINUX=).*/\1disabled/g' /etc/selinux/config//配置网络源
[root@Client ~]# wget -O /etc/yum.repos.d/CentOS-Base.repo https://mirrors.aliyun.com/repo/Centos-vault-8.5.2111.repo
[root@Client ~]# sed -i -e '/mirrors.cloud.aliyuncs.com/d' -e '/mirrors.aliyuncs.com/d' /etc/yum.repos.d/CentOS-Base.repo
[root@Client ~]# yum -y install epel-release vim wget gcc gcc-c++
安装过程略.....//安装keepalived
#先查看有没有keepalived
[root@Client ~]# dnf list all | grep keepalived
Repository extras is listed more than once in the configuration
keepalived.x86_64                                                 2.1.5-9.el8                                                appstream
#没有keepalived就安装epel-release
[root@Client ~]# dnf -y install epel-release[root@Client ~]# yum -y install keepalived

4.2 在主备机上分别安装nginx

注意安装nginx的虚拟机必须是干净的没有安装过nginx的
在localhost上安装nginx

[root@localhost ~]# yum -y install nginx
[root@localhost ~]# cd /usr/share/nginx/html/
[root@localhost html]# ls
404.html  50x.html  index.html  nginx-logo.png  poweredby.png
[root@localhost html]# echo 'localhost' > index.html
[root@localhost html]# cat index.html
localhost[root@localhost html]# systemctl start nginx
[root@localhost html]# systemctl enable nginx
[root@localhost html]# ss -anlt
State      Recv-Q     Send-Q         Local Address:Port           Peer Address:Port     Process
LISTEN     0          128                  0.0.0.0:22                  0.0.0.0:*
LISTEN     0          128                  0.0.0.0:80                  0.0.0.0:*
LISTEN     0          128                     [::]:22                     [::]:*
LISTEN     0          128                     [::]:80                     [::]:*
[root@localhost html]# 

在Client上安装nginx

[root@Client html]# yum -y install nginx
[root@Client ~]# cd /usr/share/nginx/html/
[root@Client html]# ls
404.html  50x.html  index.html  nginx-logo.png  poweredby.png
[root@Client html]# echo 'Client' > index.html
[root@Client html]# cat index.html
Client
[root@Client html]# systemctl start nginx
[root@Client html]#
#注意因为这个是备用的所以不需要开机自启[root@Client html]# ss -anlt
State      Recv-Q     Send-Q         Local Address:Port           Peer Address:Port     Process
LISTEN     0          128                  0.0.0.0:80                  0.0.0.0:*
LISTEN     0          128                  0.0.0.0:22                  0.0.0.0:*
LISTEN     0          128                     [::]:80                     [::]:*
LISTEN     0          128                     [::]:22                     [::]:*
[root@Client html]# 

在浏览器上访问试试,确保localhost上的nginx服务能够正常访问

4.3 keepalived配置

4.3.1 配置主keepalived

//备份配置文件以免错误无法找到原来的配置
[root@localhost html]# cd /etc/keepalived/
[root@localhost keepalived]# ls
keepalived.conf
[root@localhost keepalived]# mv keepalived.conf{,-bak}
[root@localhost keepalived]# ls
keepalived.conf-bak[root@Client html]# cd /etc/keepalived/
[root@Client keepalived]# mv keepalived.conf{,-bak}
[root@Client keepalived]# ls
keepalived.conf-bak//修改主localhost的配置文件然后设置开机自启
[root@localhost keepalived]# vim keepalived.conf
! Configuration File for keepalivedglobal_defs {router_id lb01
}vrrp_instance VI_1 {state MASTER   #这个是虚拟机大写的名字而已不重要interface ens33virtual_router_id 51priority 100advert_int 1authentication {auth_type PASSauth_pass longling}virtual_ipaddress {192.168.141.250}
}virtual_server 192.168.141.250 80 {delay_loop 6lb_algo rrlb_kind DRpersistence_timeout 50protocol TCPlb_algo rrlb_kind DRpersistence_timeout 50protocol TCPreal_server 192.168.141.137 80 {weight 1TCP_CHECK {connect_port 80connect_timeout 3nb_get_retry 3delay_before_retry 3}}real_server 192.168.141.140 80 {weight 1TCP_CHECK {connect_port 80connect_timeout 3nb_get_retry 3delay_before_retry 3}}
}
[root@localhost keepalived]# systemctl start keepalived
[root@localhost keepalived]# systemctl enable keepalived

4.3.2 配置备keepalived

[root@Client keepalived]# vim keepalived.conf
! Configuration File for keepalivedglobal_defs {router_id lb02  #修改这里
}vrrp_instance VI_1 {! Configuration File for keepalivedglobal_defs {router_id lb02
}vrrp_instance VI_1 {state BACKUP   #修改这里这个是虚拟机大写的名字interface ens33virtual_router_id 51priority 90   #修改这里advert_int 1authentication {auth_type PASSauth_pass longling}virtual_ipaddress {192.168.141.250}
}virtual_server 192.168.141.250 80 {delay_loop 6lb_algo rrlb_kind DRpersistence_timeout 50protocol TCPlb_algo rrlb_kind DRpersistence_timeout 50protocol TCPreal_server 192.168.141.137 80 {weight 1TCP_CHECK {connect_port 80connect_timeout 3nb_get_retry 3delay_before_retry 3}}real_server 192.168.141.140 80 {weight 1TCP_CHECK {connect_port 80connect_timeout 3nb_get_retry 3delay_before_retry 3}}
}[root@Client keepalived]# systemctl start keepalived
[root@Client keepalived]# systemctl enable keepalived

4.3.3 查看VIP在哪里

在localhost上查看

[root@localhost ~]# ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00inet 127.0.0.1/8 scope host lovalid_lft forever preferred_lft foreverinet6 ::1/128 scope host valid_lft forever preferred_lft forever
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc fq_codel state UP group default qlen 1000link/ether 00:0c:29:ee:f9:49 brd ff:ff:ff:ff:ff:ffinet 192.168.141.137/24 brd 192.168.141.255 scope global dynamic noprefixroute ens33valid_lft 1682sec preferred_lft 1682secinet 192.168.141.250/32 scope global ens33  //可以看到此处有VIPvalid_lft forever preferred_lft foreverinet6 fe80::bfef:61a8:b1ee:d6c1/64 scope link noprefixroute valid_lft forever preferred_lft forever
[root@localhost ~]# 

在Client上查看

[root@Client ~]# ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00inet 127.0.0.1/8 scope host lovalid_lft forever preferred_lft foreverinet6 ::1/128 scope host valid_lft forever preferred_lft forever
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc fq_codel state UP group default qlen 1000link/ether 00:0c:29:37:59:5d brd ff:ff:ff:ff:ff:ffinet 192.168.141.140/24 brd 192.168.141.255 scope global noprefixroute ens33valid_lft forever preferred_lft foreverinet6 fe80::e72c:7b95:803d:fcb0/64 scope link noprefixroute valid_lft forever preferred_lft forever

4.4 修改内核参数,开启监听VIP功能

此步可做可不做,该功能可用于仅监听VIP的时候

在localhost上修改内核参数

//在localhost上修改内核参数
[root@localhost ~]# echo 'net.ipv4.ip_nonlocal_bind = 1' >>/etc/sysctl.conf
[root@localhost ~]# sysctl -p
net.ipv4.ip_nonlocal_bind = 1
[root@localhost ~]# cat /proc/sys/net/ipv4/ip_nonlocal_bind
1//在Client上修改内核参数
[root@Client ~]# echo 'net.ipv4.ip_nonlocal_bind = 1' >>/etc/sysctl.conf
[root@Client ~]# sysctl -p
net.ipv4.ip_nonlocal_bind = 1
[root@Client ~]# cat /proc/sys/net/ipv4/ip_nonlocal_bind
1

4.5 让keepalived监控nginx负载均衡机

keepalived通过脚本来监控nginx负载均衡机的状态

在localhost上编写脚本

[root@localhost ~]# mkdir /scripts
[root@localhost ~]# cd /scripts/
[root@localhost scripts]# vim check_nginx.sh
#!/bin/bash
nginx_status=$(ps -ef|grep -Ev "grep|$0"|grep '\bnginx\b'|wc -l)
if [ $nginx_status -lt 1 ];thensystemctl stop keepalived
fi[root@localhost scripts]# chmod +x check_nginx.sh
[root@localhost scripts]# ll
total 4
-rwxr-xr-x. 1 root root 143 Oct  8 23:07 check_nginx.sh
[root@localhost scripts]# [root@master scripts]# vim notify.sh
#!/bin/bash
VIP=$2
case "$1" inmaster)nginx_status=$(ps -ef|grep -Ev "grep|$0"|grep '\bnginx\b'|wc -l)if [ $nginx_status -lt 1 ];thensystemctl start nginxfi  ;;backup)nginx_status=$(ps -ef|grep -Ev "grep|$0"|grep '\bnginx\b'|wc -l)if [ $nginx_status -gt 0 ];thensystemctl stop nginxfi;;*)echo "Usage:$0 master|backup VIP";;
esac[root@master scripts]# chmod +x notify.sh
[root@master scripts]# ll
total 8
-rwxr-xr-x 1 root root 168 Oct 19 23:38 check_n.sh
-rwxr-xr-x 1 root root 594 Oct 20 03:24 notify.sh//测试脚本是否可以执行成功
[root@localhost scripts]# ./notify.sh backup
[root@localhost scripts]# ss -anlt
State      Recv-Q     Send-Q         Local Address:Port           Peer Address:Port     Process
LISTEN     0          128                  0.0.0.0:22                  0.0.0.0:*
LISTEN     0          128                     [::]:22                     [::]:*
[root@localhost scripts]# ./notify.sh master
[root@localhost scripts]# ss -anlt
State      Recv-Q     Send-Q         Local Address:Port           Peer Address:Port     Process
LISTEN     0          128                  0.0.0.0:22                  0.0.0.0:*
LISTEN     0          128                  0.0.0.0:80                  0.0.0.0:*
LISTEN     0          128                     [::]:22                     [::]:*
LISTEN     0          128                     [::]:80                     [::]:*
[root@localhost scripts]# [root@localhost scripts]# scp notify.sh 192.168.141.140:/scripts
The authenticity of host '192.168.141.140 (192.168.141.140)' can't be established.
ECDSA key fingerprint is SHA256:EgQ8hBfCkJDrUIWEwLcNl83tFecnCfsGfeRONx68g3o.
Are you sure you want to continue connecting (yes/no/[fingerprint])? yes
Warning: Permanently added '192.168.141.140' (ECDSA) to the list of known hosts.
root@192.168.141.140's password:
notify.sh                                                         100%  441   570.4KB/s   00:00
[root@localhost scripts]# scp check_nginx.sh  192.168.141.140:/scripts
root@192.168.141.140's password:
check_nginx.sh                                                    100%  143   206.1KB/s   00:00
[root@localhost scripts]# 

4.6 配置keepalived加入监控脚本的配置

配置主keepalived

[root@localhost scripts]# vim /etc/keepalived/keepalived.conf17     virtual_ipaddress {18         192.168.141.25019     }20         track_script {21          nginx_check22     }23     notify_master "/scripts/notify.sh master 192.168.141.250"24     notify_backup "/scripts/notify.sh backup 192.168.141.250"25 }26 27 virtual_server 192.168.141.250 80 {#插入如上配置

配置备keepalived
backup无需检测nginx是否正常,当升级为MASTER时启动nginx,当降级为BACKUP时关闭

[root@Client scripts]# vim /etc/keepalived/keepalived.conf17     virtual_ipaddress {18         192.168.141.25019     }20         track_script {21          nginx_check22     }23     notify_master "/scripts/notify.sh master 192.168.141.250"24     notify_backup "/scripts/notify.sh backup 192.168.141.250"25 }26 27 virtual_server 192.168.141.250 80 {#插入如上配置

keepalived介绍和keepalived实现nginx负载均衡机高可用相关推荐

  1. nginx负载均衡和高可用

    代理和负载均衡的区别 代理负责把连接请求直接转发到后台某个web节点     负载均衡负责把请求使用某种调度算法分散发布给后台所有web节点 ----------------------------- ...

  2. Keepalived+LVS+Nginx负载均衡之高可用

    2019独角兽企业重金招聘Python工程师标准>>> 上一篇写了nginx负载均衡,此篇实现高可用(HA).系统整体设计是采用Nginx做负载均衡,若出现Nginx单机故障,则导致 ...

  3. 用haproxy结合keepalived实现基于LNMP的负载均衡和高可用

    今天我们讲haproxy结合keepalived实现LNMP的负载均衡和高可用,现在的公司大部分都基于haproxy实现负载均衡.下面以一个事例去给大家详细讲解如何去实现: 一.用haproxy结合k ...

  4. LVS实现负载均衡及高可用

    LVS实现负载均衡及高可用 1 实验环境 1.1 虚拟机最小化封装 1.1.1 虚拟机母机安装 1.1.2 清理和压缩母机 1.1.3 创建子机 1.2 名词理解 2 lvs的工作模式 2.1 NAT ...

  5. TCP接入层的负载均衡、高可用、扩展性架构

    转载自 TCP接入层的负载均衡.高可用.扩展性架构 一.web-server的负载均衡 互联网架构中,web-server接入一般使用nginx来做反向代理,实施负载均衡.整个架构分三层: 上游调用层 ...

  6. 微服务负载均衡实现高可用_使用负载平衡实现大容量可用性

    微服务负载均衡实现高可用 Written by Yona Gidalevitz 由Yona Gidalevitz撰写 Most users of the web are blissfully unaw ...

  7. Keepalived+LVS+MySQL双主复制实现读写负载均衡及高可用

    目录 一.Keepalived和LVS简介 1. Keepalived简介 2. LVS简介 二.安装配置 1. 下载安装LVS 2. 下载安装Keepalived 3. Keepalived配置 5 ...

  8. lvs(+keepalived)、haproxy(+heartbeat)、nginx 负载均衡的比较分析

    目前使用比较多的就是标题中提到的这两者,其实lvs和haproxy都是实现的负载均衡的作用,keepalived和heartbeat都是提高高可用性的,避免单点故障.那么他们为什么这么搭配,而又有什么 ...

  9. nginx日志打印header_小水敲黑板--Nginx+Keepalived实现负载均衡和高可用

    介绍: keepalived是一个类似于layer3, 4 & 5交换机制的软件,也就是我们平时说的第3层.第4层和第5层交换.Keepalived是自动完成,不需人工干涉.主要提供loadb ...

最新文章

  1. Java Swing控件样式设置
  2. r - 求平均成绩_2019深圳市公务员考试笔试成绩公布!
  3. SpringBoot基础篇
  4. Matlab GUI 设计(3):edit、slider、table数据同步
  5. 从程序员到项目经理(二十九):怎样写文档
  6. GitHub轻松阅读微服务实战项目流程详解【第四天:账户服务的设计与实现】
  7. boost::sloan_ordering用法的测试程序
  8. NetCore + SignalR 实现日志消息推送
  9. PHP5中数组函数总结
  10. mysql my.cnf中忽略大小写_修改my.cnf ,使mysql 的表面不区分大小写
  11. 【线性代数及其应用】02 -矩阵代数
  12. c# gerber文件读取_PCB加工中Gerber文件的解析及其图形绘制和分割的研究
  13. 元进Python(3)---如何实现IP子网掩码计算器功能?
  14. 矩阵分解MF与非负矩阵分解NMF的应用
  15. Port vlan Tag vlan
  16. 2014年总结和2015年计划
  17. HCIP H12-223 题库
  18. 华为又招了一名天才少年!
  19. windows 下端口转发 端口映射工具 passport
  20. 大学生计算机学习计划2000字,2020学年大学生新学期学习计划2000字

热门文章

  1. html如何在每段话前加圆点,怎么修改html中列表项li所显示的圆点的颜色
  2. 苹果手机不实用?那你是没用过这4个功能,快捷又方便
  3. sqlite3查询:显示表头 与 对齐
  4. 好网的docker项目-02dsa-framework
  5. Android短信相关
  6. 公益创投|“共筑成长路”——流动儿童心理支持多元活动来啦
  7. 对flutter的一些认识
  8. 四川大学计算机考研专业代码,[四川大学及其专业代码] 四川大学专业目录
  9. 十天学会php之第四天
  10. Win7下,Office 2010和Adobe Acrobat Professional 8.1不兼容:PDFMaker文件遗失