Keepalived 双机热备

给你一囗甜甜゛ 提交于 2020-11-25 06:43:48

Keepalived 双机热备





大纲

         1 KeepaLived概述
                1.1 Keepalived的热备方式
                1.2 Keepalived的安装与服务控制
                1.3 使用Keepalived实现双机热备
         2 LVS+Keepalived高可用群集
                2.1 配置主调度器
                2.2 配置从调度器
                2.3 配置Web节点服务器
                2.4 测试LVS+keepalived高可用群集


1 KeepaLived概述

Keepalived是专门针对LVS设计的一款强大的辅助工具,主要用来提供故障切换(Failover)和健康检查(HeathChecking)功能

——判断LVS负载调度器、节点服务器的可用性,及时隔离并替换为新的服务器,当故障主机恢复后将其重新加入群集。


Keepalived概述及安装
Keepalived的官方网站位于http://www.keepaltved.org/


1.1 Keepalived的热备方式
Keepalived采用VRRP(Virtual Router Redundancy Protocol,虚拟路由冗余协议)热备份协议,以软件的方式实现Linux服务器的

多机热备功能。VRRP是针对路由器的一种备份解决方案——由多台路由器组成一个热备组,通过共用的虚拟ip地址对外提供服务;

每个热备组内同一时刻只有一台主路由器提供服务,其他路由器处于冗余状态,若当前在线的路由器失效,

则其他路由器会自动接替(优先级决定接替顺序)虚拟IP地址,以继续提供服务:
 


热备组内的路由器之间进行转移,所以也称为漂移IP地址。使用Keepalived时,漂移地址的实现不需要

手动建立虚接口配置文件(如eth0:0)而是由Keepalived根据配置文件自动管理。

1.2 Keepalived的安装与服务控制
1)安装支持软件
在编译安装Keepallved之前,必须先安装内核开发包kernel-devel,以及openss1一devel、popt-devel

等支持库。除此之外,在LVS群集环境中应用时,也需要用到rpvsadm管理工具。



[root@Keep1 ~]# yum -y install kernel-devel openssl-devel popt-devel
......//省略部分信息
已安装:
  kernel-devel.x86_64 0:2.6.32-504.12.2.el6        openssl-devel.x86_64 0:1.0.1e-30.el6.8      
  popt-devel.x86_64 0:1.13-7.el6                 
作为依赖被安装:
  keyutils-libs-devel.x86_64 0:1.4-5.el6          krb5-devel.x86_64 0:1.10.3-37.el6_6           
  libcom_err-devel.x86_64 0:1.41.12-21.el6        libselinux-devel.x86_64 0:2.0.94-5.8.el6      
  libsepol-devel.x86_64 0:2.0.41-4.el6            zlib-devel.x86_64 0:1.2.3-29.el6    
[root@Keep1 ~]# yum -y install keepalived    <==yum安装
[root@Keep1 ~]# rpm -ivh / misc/cd/Paclcages/ipvsadm-1.25-9.e16.i686.rpm    <==rpm包安装



2)编译安装Keepaived
使用指定的Linux内核位置对Keepalived进行配置,并将安装路径指定为根目录,这样就无需额外创建链接文件了

。配置完成后,依次执行make、makeinstall进行安装。



[root@Keep1 ~]# tar zxf keepalived-1.2.2.tar.gz
[root@Keep1 ~]# cd keepalived-1.2.2
[root@Keep1 keepalived-1. 2. 2]# ./configure --prefix=/ --with-kernel-dir=

/usr/stc/kernels/2.6.32-131.0.15.el6.i686
[root@Keep1 keepalived-1. 2. 2]# make
[root@Keep1 keepalived-1. 2. 2]# make install




3)使用Keepalived服务
执行make instal操作以后会自动生成/etc/lnit.d/keepalived脚本文件,但还需要手动添加为系统服务

,这样就可以使用service,chkconfig工具来对Keepalived服务程序进行管理了。



[root@Keepalived ~]# ls -1 /etc/init.d/keepalived
-rwxr-xr-x 1 root root 1288 11月 8 16:23  /etc/init.d/keepalived
[root@Keep1 ~]# chkconfig --add keepalived
[root@Keep1 ~]# chkconfig keepalived on



1.3 使用Keepalived实现双机热备
基于VRRP协议的热备方式,Keepalived可以用作服务器的故障切换,每个热备组可以有多台服务器——

当然,最常用的就是双机热备了。在这种双机热备方案中故障切换主要针对虚拟IP地址的漂移来实现,

因此能够适用于各种应用服务器(不管是Web、FTP、Mail还是SSH、DNS......)。
网络拓扑:
 



主备服务器都需要安装Keepalived,使用rpm或yum方式安装httpd、vsftpd提供Web、FTP服务。
1)主服务器配置
Keepalived服务的配置目录位于/etc/Keepalived/。其中Keepalived.conf是主配置文件;

另外包括一个子目录samples/,提供了许多配置样例参考。在Keepalived的配置文件中,

使用“global_defs {...}"区段指定全局参数,使用“vrrp_instance 实例名称 {...}"区段指定VRRR热备参数,

注释文字以“!”符号开头。



[root@Keep1 ~]# cd /etc/keepalived/
[root@Keep1 keepalived]# cp keepalived.conf keepalived.conf.bak
[root@Keep1 keepalived]# vim keepalived.conf
global_defs {
    router_id HA_TEST_R1  //本路由器(服务器)的名称
}
vrrp_instance VI_1 {         //指定VRRP热备实例
    state MASTER             //热备状态,MASTER表示主服务器
    interface eth0           //承载VIP地址的物理接口
    virtual_router_id 1      //虚拟路由器的ID号,每个热备组保持一致
    priority 100             //优先级,数值越大优先级越高 
    advert_int 1             //通告间隔秒数(心跳频率)
    authentication {         //认证信息,每个热备组保持一致
        auth_type PASS       //认证类型
        auth_pass 1111       //密码字串
    }
    virtual_ipaddress {
        172.16.1.130         //指定漂移地址(VIP),可以有多个
    }
}


确认配置无误,然后启动keepalived服务。实际状态为MASTER的主服务器将为eth0接口自动添加VIP地址,

通过ip命令可以查看(注:ifconfig看不到)



[root@Keep1 keepalived]# service keepalived start
[root@Keep1 keepalived]# ip addr show dev eth0
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
    link/ether 00:0c:29:88:9b:6a brd ff:ff:ff:ff:ff:ff
    inet 172.16.1.128/24 brd 172.16.1.255 scope global eth0
    inet 172.16.1.130/32 scope global eth0     <==自动设置的VIP地址
    inet6 fe80::20c:29ff:fe88:9b6a/64 scope link
       valid_lft forever preferred_lft forever




2) 备用服务器的配置 

在同一个Keepalived热备组内,所有服务器的Keepalived配置文件基本相同,包括路由器名称,

虚拟路由器的ID号,认证信息,漂移地址,心跳频率等。不同之处主要在于路由器名称热备状态,优先级。
➣  路由器名称(router_id):建议为每个参与热备的服务器指定不同的名称。
➣  热备状态(state):至少应有一台主服务器,将状态设为MASTER;可以有多台备用的服务器,

将状态设为备用服务器。
➣  优先级(priority):数值越大则取得VIP控制权的优先级越高,因此主服务器的优先级应设为最高;

其他备用服务器的优先级可依次递减,但不要相同,
     以免在争夺VIP控制权时发生冲突。
配置备用服务器(可以有多台)时可以参考主服务器的keepalived.conf配置文件内容,只要修改路由器名称,

热备状态,优先级就可以了。



[root@Keep2 ~]# cd /etc/keepalived/
[root@Keep2 keepalived]# cp keepalived.conf keepalived.conf.bak
[root@Keep2 keepalived]# vim keepalived.conf
global_defs {
    router_id HA_TEST_R2      //本路由器(服务器)的名称
}
vrrp_instance VI_1 {         
    state BACKUP              //热备状态,BACKUP/SLAVE都表示备用服务器
    interface eth0            //承载VIP地址的物理接口
    virtual_router_id 1       //虚拟路由器的ID号,每个热备组保持一致
    priority 99               //优先级,数值越大优先级越高
    advert_int 1              //通告间隔秒数(心跳频率)
    authentication {          //认证信息,每个热备组保持一致
        auth_type PASS        //认证类型
        auth_pass 1111        //密码字串
    }
    virtual_ipaddress {
        172.16.1.130          //指定漂移地址(VIP),可以有多个
    }
}


确认配置无误,一样需要启动Keepalived服务。此时主服务器仍然在线,VIP地址实际上仍然由主服务器控制,

其他服务器处于备用状态,因此在备用服务器中将不会为eth0添加接口VIP地址。



[root@Keep2 keepalived]# service keepalived start
[root@Keep2 keepalived]# ip addr show dev eth0
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
    link/ether 00:0c:29:88:9b:6a brd ff:ff:ff:ff:ff:ff
    inet 172.16.1.128/24 brd 172.16.1.255 scope global eth0
    inet6 fe80::20c:29ff:fe88:9b6a/64 scope link
       valid_lft forever preferred_lft forever




3) 测试双机热备功能
Keepalived的日志消息保存在/var/log/messages文件中,在测试主备故隆自动切换功能时,

可以跟踪此日志文件来观察热备状态的变化。以针对连通性、FTP和Web服务的测试为例,主要操作如下所述:

一. 连通性测试
在客户机中执行"ping -t 172.16.1.130",能够正常持续ping通,根据以下操作继续观察测试结果。


(1)禁用主服务器的eth0网卡发现ping测试只中断了1-2个包即恢复正常说明已有其他服务器接替VIP地址,

并及时响应客户机请求。
 
(2)重新启用主服务器的eth0网卡,发现ping测试再次中断1-2个包即恢复正常,说明主服务器已恢复正常,

并夺回VIP地址的控制权。
 
二. FTP和Web访问测试
在客户机中访问ftp://172.16.1.130、http://172.16.1.130,将看到由主服务器172.16.1.128提供的FTP目录,

网页文档。

(1)禁用主服务器的eth0网卡,再次访问上述FTP,Web服务将看到由备用服务器172.16.16.129提供的FTP目录,

网页文档,说明VIP地址已切换至备用服务器。

(2)重新启用主服务器的eth0网卡,再次访问上述FTP,Web服务将看到重新由主服务器172.16.1.128提供的

FTP目录,网页文档,说明主服务器已重新夺回控制权。

三. 查看日志记录
在执行主、备故障切换的过程中,分别观察各自的/var/log/messages日志文件可以看到MASTER,

SLAVE状态的迁移记录。

(1)主服务器中,状态先变为失效、放弃控制权,恢复后重新变为MASTER。



[root@LVS keepalived]# less /var/log/messages




(2)备用服务器中,状态先切换为MASTER,待主服务器回复后再交回控制权。


通过上述测试过程,可以发现双机热备已经正常。客户机只要通过VIP地址就可以访问服务器所提供的FTP、

Web等应用,其中任何一台服务器失效,另一台服务器将会立即接替服务,从而实现高可用性。

实际应用中,注意主、备服务器所提供的FTP、WEB服务内容要保持相同。




2 LVS+Keepalived高可用群集
Keepalived的设计目标是构建高可用的LVS负载均衡群集,可以调用ipvsadm工具来创建虚拟服务器,

管理服务器池,而不仅仅用来做双机热备。使用

Keepalived构建LVS群集更加简便易用,主要优势体现在:对LVS负载调度器实现热备切换,提高可用性;

对服务器池中的节点进行健康检查自动移除失效节点,恢复后再重新加入。



在基于LVS+Keepalived实现的LVS群集结构中,至少包括两台热备的负载调度器,三台以上的节点服务器,

下面将以DR模式的LVS群集为基础增加一台从负载调度器使用Keepalived来实现主从调度器的热备从而构建兼

有负载均衡,高可用两种能力的LVS网站群集平台。
网络拓扑:
 

使用Keepalived构建LVS群集时也需要用到ipvsadm管理工具,但大部分工作会由Keepalived自动完成,

不需要手动执行ipvsadm(除了查看和监控群集以外)。下面主要是Keepalved的服务器池设置关于

NFS共享服务的配置。关于NFS共享服务器设置、Keepalived的热备配置等请参考有关笔记。

2.1 配置主调度器
【LVS负载均衡配置部分】



[root@LVS+K1~]# modprobe ip_vs         <==加载ip_Vs模块
[root@LVS+K1 ~]# yum -y install ipvsadm      <==安装ipvsadm工具包
[root@LVS+K1 ~]# ipvsadm -A -t 172.16.1.130:80 -s rr      <==配置负载分配策略
[root@LVS+K1 ~]# ipvsadm -a -t 172.16.1.130:80 -r 172.16.1.131:80 -g -w 1
[root@LVS+K1 ~]# ipvsadm -a -t 172.16.1.130:80 -r 172.16.1.132:80 -g -w 1
[root@LVS+K1 ~]# ipvsadm-save > /etc/sysconfig/ipvsadm    <==保存负载分配策略
[root@LVS+K1 ~]# cat /etc/sysconfig/ipvsadm      <==确认保存结果
[root@LVS+K1 ~]# chkconfig ipvsadm on    <==加入开机自启动


#调整/proc响应参数(避免ARP包错误)


[root@LVS+K1 ~]# vim /etc/sysctl.conf
…… /省略部分信息
net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.eth0.send_redirects = 0
net.ipv4.conf.eth1.send_redirects = 0
[root@LVS+K1 ~]# sysctl -p   <==让配置生效
[root@LVS+K1 ~]# ipvsadm -Ln    <==查看节点状态



【Keepalived双击热备配置部分】

1)全局配置,热备配置
首先应为主,从调度器实现热备功能,漂移地址使用LVS群集的VIP地址。


[root@LVS+K1 ~]# yum -y install kernel-devel openssl-devel popt-devel      <==安装内核开发包
[root@LVS+K1 ~]# yum -y install keepalived       <==安装keepalived软件包
[root@LVS+K1 ~]# chkconfig --add keepalived      <==创建为系统服务服务
[root@LVS+K1 ~]# chkconfig keepalived on         <==加入开机自启动
[root@LVS+K1 ~]# cd /etc/keepalived/
[root@LVS+K1 keepalived]# cp keepalived.conf keepalived.conf.bak
[root@LVS+K1 keepalived]# vim keepalived.conf
global_defs {
    router_id LVS_HA_R1    //主调度器的名称
}
vrrp_instance VI_1 {
    state MASTER           //主调度器的热备状态
    interface eth0
    virtual_router_id 51
    priority 100           //主调度器的优先级
    advert_int 1
    authentication {       //主、从热备认证信息
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {
        172.16.1.130       //指定集群VIP地址
    }
}



2)Web服务器池配置
在keepalived的热备配置基础上,添加“virtual_server VIP端口 {...}”区段来配置虚拟服务器。

主要包括对负载调度算法,群集工作模式,健康检查间隔,真实服务器地址等参数的设置。



root@LVS+K1 keepalived]# vi /etc/keepalived/keepalived.conf
virtual_server 172.16.1.130 80 {               //虚拟服务器地址(VIP)、端口
    delay_loop 15                              //健康检查时间的间隔(秒)
    lb_algo rr                                 //轮询(rr)调度算法
    lb_kind DR                                 //直接路由(DR)群集工作模式
! persistence 60                             //连接保持时间(秒),若启用请去掉!号
    protocol TCP                               //应用服务采用的是TCP协议
    real_server 172.16.1.131 80 {              //第一个Web节点的地址、端口
        weight 1                               //节点权重
        TCP_CHECK {                            //健康检查方式
                connect_port  80               //检查的目标端口
                connect_timeout  3             //连接超时(秒)
                nb_get_retry  3                //重试次数
                delay_before_retry  4          //重试间隔(秒)
            }
    }
    real_server 172.16.1.132 80 {              //第二个Web节点的地址、端口
        ......//省略部分信息
    }
     real_server 172.16.1.133 80 {             //第三个Web节点的地址、端口
        ......//省略部分信息
    }
     real_server 172.16.1.134 80 {             //第四个Web节点的地址、端口
        ......//省略部分信息
    }
}

3)重新启动keepalived服务


[root@LVS+K1 keepalived]# service keepalived restart
[root@LVS+K1 keepalived]# ip addr show dev eth0    <==查看浮动IP是否添加成功
[root@LVS+K1 ~]# vim /etc/sysconfig/iptables
-A INPUT -p tcp -m tcp --dport 80 -j ACCEPT    <==开放80端口让客户端能够访问进来
[root@LVS+K1 ~]# service iptables restart


#在LVS调度服务器上开放80端口,只是为了让客户机能有一个接口进来,然后在通过此接口连接到后端

真正的Web服务器的80端口调取数据,在LVS调度服务器上并不需要安装httpd服务!

2.2 配置从调度器
从调度器的配置与主调度器基本相同,也包括全局配置,热备配置,服务器池配置,只需要调整router_id,

state,priority参数即可,其余内容完全相同。配置完以后重启keepalived服务。

【LVS负载均衡配置部分】



[root@LVS+K2~]# modprobe ip_vs               <==加载ip_Vs模块
[root@LVS+K2 ~]# yum -y install ipvsadm      <==安装ipvsadm工具包
[root@LVS+K2 ~]# ipvsadm -A -t 172.16.1.130:80 -s rr        <==配置负载分配策略
[root@LVS+K2 ~]# ipvsadm -a -t 172.16.1.130:80 -r 172.16.1.131:80 -g -w 1
[root@LVS+K2 ~]# ipvsadm -a -t 172.16.1.130:80 -r 172.16.1.132:80 -g -w 1
[root@LVS+K2 ~]# ipvsadm-save > /etc/sysconfig/ipvsadm      <==保存负载分配策略
[root@LVS+K2 ~]# cat /etc/sysconfig/ipvsadm      <==确认保存结果
[root@LVS+K2 ~]# chkconfig ipvsadm on            <==加入开机自启动


#调整/proc响应参数(避免ARP包错误)


[root@LVS+K2 ~]# vim /etc/sysctl.conf
…… /省略部分信息
net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.eth0.send_redirects = 0
net.ipv4.conf.eth1.send_redirects = 0
[root@LVS+K2 ~]# sysctl -p      <==让配置生效
[root@LVS+K2 ~]# ipvsadm -Ln    <==查看节点状态




【Keepalived双击热备配置部分】

1)全局配置,热备配置
首先应为主,从调度器实现热备功能,漂移地址使用LVS群集的VIP地址。



[root@LVS+K2 ~]# yum -y install kernel-devel openssl-devel popt-devel      <==安装内核开发包
[root@LVS+K2 ~]# yum -y install keepalived       <==安装keepalived软件包
[root@LVS+K2 ~]# chkconfig --add keepalived      <==创建为系统服务服务
[root@LVS+K2 ~]# chkconfig keepalived on         <==加入开机自启动
[root@LVS+K2 ~]# cd /etc/keepalived/
[root@LVS+K2 keepalived]# cp keepalived.conf keepalived.conf.bak
[root@LVS+K2 keepalived]# vim /etc/keepalived/keepalived.conf
global_defs {
    router_id LVS_HA_R2       //备份调度器的名称
}
vrrp_instance VI_1 {
    state BACKUP       //备份调度器的热备状态
    interface eth0
    virtual_router_id 51
    priority 99       //备份调度器的优先级
    advert_int 1
    authentication {      
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {
        172.16.1.130     //指定集群VIP地址
    }
virtual_server 172.16.1.130 80 {               //虚拟服务器地址(VIP)、端口
    delay_loop 15                              //健康检查时间的间隔(秒)
    lb_algo rr                                 //轮询(rr)调度算法
    lb_kind DR                                 //直接路由(DR)群集工作模式
! persistence 60                             //连接保持时间(秒),若启用请去掉!号
    protocol TCP                               //应用服务采用的是TCP协议
    real_server 172.16.1.131 80 {              //第一个Web节点的地址、端口
        weight 1                               //节点权重
        TCP_CHECK {                            //健康检查方式
                connect_port  80               //检查的目标端口
                connect_timeout  3             //连接超时(秒)
                nb_get_retry  3                //重试次数
                delay_before_retry  4          //重试间隔(秒)
            }
    }
    real_server 172.16.1.132 80 {              //第二个Web节点的地址、端口
        ......//省略部分信息
    }
     real_server 172.16.1.133 80 {             //第三个Web节点的地址、端口
        ......//省略部分信息
    }
     real_server 172.16.1.134 80 {             //第四个Web节点的地址、端口
        ......//省略部分信息
    }
}
[root@LVS+K2 keepalived]# service keepalived restart
[root@LVS+K2 keepalived]# ip addr show dev eth0    <==查看浮动IP是否添加成功
[root@LVS+K2 ~]# vim /etc/sysconfig/iptables
-A INPUT -p tcp -m tcp --dport 80 -j ACCEPT    <==开放80端口让客户端能够访问进来,

无需安装httpd服务
[root@LVS+K2 ~]# service iptables restart




2.3 配置Web节点服务器
根据所选择的集群工作模式不同(DR或NAT),节点服务器的配置也有差异。以DR模式为例,

除了需要调整/proc系统的ARP响应参数以外,还需要为虚接口lo:0配置VIP地址,并添加一条到VIP的本地路由,具体方法参照LVS设置笔记。
1)安装httpd服务



[root@www1 ~]# yum -y install httpd 
[root@www1 ~]# cd /etc/sysconfig/network-scripts/
[root@www1 network-scripts]# cp ifcfg-lo ifcfg-lo:0
[root@www1 network-scripts]# vim ifcfg-lo:0
DEVICE=lo:0
IPADDR=172.16.1.130
NETMASK=255.255.255.255     <==注意子网掩码必须全为1
ONBOOT=yes
[root@www1 network-scripts]# ifup lo:0
[root@www1 network-scripts]# ifconfig lo:0
lo:0      Link encap:Local Loopback 
          inet addr:172.16.1.130  Mask:255.255.255.255
          UP LOOPBACK RUNNING  MTU:16436  Metric:1
[root@www1 ~]# vi /etc/rc.local 
/sbin/route add -host 172.16.1.130 dev lo:0     <==添加VIP本地访问路由
[root@www1~]#route add -host 172.16.1.130 dev lo:0




2)调整/proc响应参数

[root@www1 ~]# vim /etc/sysctl.conf
…… /省略部分信息
net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2
net.ipv4.conf.default.arp_ignore = 1
net.ipv4.conf.default.arp_announce = 2
net.ipv4.conf.lo.arp_ignore = 1
net.ipv4.conf.lo.arp_announce = 2
[root@www1 ~]# sysctl -p


3)安装httpd,创建测试网页


[root@www1 ~]# mount 192.168.1.100:/opt/wwwroot /var/www/html     <==如果有NFS就挂载,

没有就忽略此命令
[root@www1 ~]# vi /var/www/html/index.html
<h1>LVS负载均衡群集——测试网页/<h1>
[root@www1 ~]# service httpd start
[root@www1 ~]# chkconfig httpd on
[root@LVS+K2 ~]# vim /etc/sysconfig/iptables
-A INPUT -p tcp -m tcp --dport 80 -j ACCEPT    <==开放80端口为客户端提供httpd服务
[root@LVS+K2 ~]# service iptables restart


4)测试LVS+keepalived高可用群集
在客户机的浏览器中,能够通过LVS+keepalived集群的VIP地址(172.16.1.130)正常访问web页面内容。

当主,从调度器任何一个失效时,Web站点任然可以访问(可能需要刷新或重新打开浏览器);

只要服务器池有两台以上的真实服务器可用,就可以实现访问量的负载均衡。
通过主、从调度器的/var/log/messages日志文件,可以跟踪故障切换过程;若要查看负载分配情况,

可执行“ipvsadm -Ln”、“ipvsadm -Lnc”等操作命令。

最终以验证LVS+keepalived高可用群集是否成功运行。


#客户机通过网页访问http://172.16.1.130,可以看到由Web服务器提供的网页内容,

多刷新几次然后到LVS主调度器上查看负载均衡情况:
 

#当前LVS备用调度器处于监控状态,并没有正式工作,所以上面并没有负载均衡记录:

 



#手动将LVS主调度器关机(或者断开eth0连接),然后再次刷新网页。

如果能浏览到网页内容说明已经成功切换到LVS备用调度器上,然后查看LVS备用调度器的负载均衡情况:
 



#在LVS主服务器宕机或断开连接的情况下,客户机打开网页发现仍然可以继续访问Web服务器提供的网页,

此时的网站负载均衡功能由LVS备用服务器提供:
 



注意:当LVS主服务器修复上线后,会再次夺取控制权,而LVS备用服务器也将回到监听状态。






**********LVS负载均衡失败排查思路***********
➣  首先使用“ipvsadm -Ln”查看负载分配策略的ip和端口是否正确
➣  检测iptables防火墙端口是否开放
➣  SElinux机制是否关闭
➣  网络是否通畅,多重启几次服务“service ipvsadm restart”


**********Keepalived双机热备切换失败排查思路***********
➣  检测主调度服务器和备份调度服务器的/etc/keepalived/keepalived.conf配置文件是否正确。
➣  如果将eth0等端口重启过,一定要记得重启一下keepalived服务,“service keepalived restart”。

虽然已经将keepalived服务加入了开机自启动,但是重启网卡后浮动ip(VIP)就会丢失,

必须重启网卡才能重新建立好浮动IP,可以使用“ip add show dev eth0”命令查看浮动IP是否建立成功:



[root@LVS+K1 ~]# ip add show dev eth0
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
    link/ether 00:0c:29:88:9b:6a brd ff:ff:ff:ff:ff:ff
    inet 172.16.1.128/24 brd 172.16.1.255 scope global eth0
    inet 172.16.1.130/32 scope global eth0
    inet6 fe80::20c:29ff:fe88:9b6a/64 scope link
       valid_lft forever preferred_lft forever

➣  上面两条都检查无误但还是失败的话建议重启服务器试试“reboot”。
标签
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!