keepalived

2018-07-23笔记(Linux集群架构 lvs keepalived)

易管家 提交于 2019-12-03 10:18:03
18.11 LVS DR模式搭建 原理: client 发送一个pv请求给VIP;VIP 收到这请求后会跟LVS设置的LB算法选择一个LB 比较合理的realserver,然后把此请求的package 的MAC地址修改为realserver的MAC地址,realserver 处理这个包后,会跟dst 为client ip 直接发送给 client ip;不经过lvs LVS DR模式的注意情况: 1、 LVS 的VIP 和 realserver 必须在同一个网段,不然广播后所有的包都会丢掉: 提前确认LVS/硬件LB 是什么模式,是否需要在同一个网段 2、所有的realserver 都必须绑定VIP的IP地址,否则realserver 收到package后发现dst 不是自己的IP,所有包都会丢掉。 3、realserver·处理完包后直接把package 通过dst IP 发送给 client ,不通过LVS/迎接IP 了这样的LVS /VIP 效率会更高一点。【通过把realserver的ip暴漏给外界,不是很安全】 DR模式搭建 – 准备工作 三台机器 dir 192.168.66.130 rs1 192.168.66.131 rs2 192.168.66.132 dir和rs上都要绑定的vip 192.168.66.200 1、dir上编写脚本 vim /usr/local

MySQL + KeepaLived 高可用

拜拜、爱过 提交于 2019-12-03 05:03:44
MySQL + KeepaLived 高可用 1. 基础环境 两台服务器,MySQL互为主从 MASTER 的 IP:10.0.0.11 BACKUP 的 IP:10.0.0.12 2.MASTER 实操 yum -y install keepalived cd /etc/keepalivedcp keepalived.conf keepalived.conf.bakvim keepalived.conf vrrp_instance VI_1 { state MASTER # 主机的初始身份:MASTER/BACKUP interface eth0 # VIP绑定网卡设备 virtual_router_id 51 # 路由广播ID,同步ID可以接受广播 priority 100 # 优先级,越大优先级越高,主的初始优先级必须要大于备份的主机 advert_int 1 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 10.0.0.90 # VIP地址 }}virtual_server 10.0.0.90 3306 { # 虚拟服务器,IP地址是VIP,端口是对应服务的端口 delay_loop 6 nat_mask 255.255.255.0 protocol TCP​ real_server

[转帖]【MySQL+keepalived】用keepalived实现MySQL主主模式的高可用

本秂侑毒 提交于 2019-12-03 03:28:21
【MySQL+keepalived】用keepalived实现MySQL主主模式的高可用 https://www.jianshu.com/p/8694d07595bc 一、实验说明 MySQL主主模式,是两台MySQL数据库互为主从。 此实验是用keepalived实现MySQL主主模式的高可用,基于已经安装好了主主架构的MySQL,然后配置keepalived,验证高可用性! 二、实验环境 操作系统:CentOS 7.5 serverA:192.168.1.104 serverB: 192.168.1.105 VIP: 192.168.1.110 三、关闭selinux # setenforce 0 # sed -i 's/^SELINUX=.*/SELINUX=permissive/g' /etc/selinux/config 四、防火墙设置 firewalld和iptables二选一 五、软件安装 在serverA和serverB # yum -y install epel-release # yum -y install keepalived 六、在serverA配置keepalived # vim /etc/keepalived/keepalived.conf ########################################### !

Keepalived主备

ぐ巨炮叔叔 提交于 2019-12-03 01:46:38
这里我们仅仅只利用Keepalived做双机热备,也就是保证服务器的高可用性,其他的不用管。 一、Keepalived双机热备的应用场景 二、Keepalived双机热备的特性以及优缺点   特性:   1,至少需要两台服务器,其中一台为master始终提供服务,另外一台作为backup始终处于空闲状态,只有在主服务器挂掉的时候他就来帮忙了,这是典型的双机热备   2,能根据需求判断服务是否可用,在不可用的时候要即使切换   优缺点:   优点:数据同步非常简单,不像负载均衡对数据一致性要求非常高,实现起来相对复杂维护也颇为不便,双机热备用rsync就可以实现了操作和维护非常简单   缺点:服务器有点浪费,始终有一台处于空闲状态 三、Keepalived双机热备的配置   首先画个双机热备拓扑图吧: Keepalived安装   操作系统:Linux6.3 2.6.32   下载软件   keepalived官方地址: http://www.keepalived.org/download.html 大家可以到这里下载最新版本的keepalived(如果已经提供用提供的安装包keepalived-1.2.15.tar.gz)   创建目录、压缩文件上传、解压(主备机进行相同操作) mkdir -p /usr/local/HAsoft cd /usr/local/HAsoft tar

Keepalived实现LVS-DR集群高可用

匿名 (未验证) 提交于 2019-12-03 00:41:02
一、集群高可用概述 单纯的lvs/nginx反向代理模型做负载集群应用时,DR(director)存在单点故障隐患,故需要有机制来保证DR的高可用性。常用的高可用性方案有Keepalived、corosync,Keepalived主要是由VRRP协议实现了VIPfloating,比较适用于前端DR的高可用性,Corosync一般用于更专业的集群模型实现Service的高可用。Keepalived起初就是为了实现LVS集群director高可用而开发的,本处仅做Keepalived+LVS-DR模型实验。 二、Keepalived原理简介 Keepalived中优先级高的节点为MASTER。MASTER其中一个职责就是响应VIP的arp包,将VIP和mac地址映射关系告诉局域网内其 他主机,同时,它还会以多播的形式向局域网中发送VRRP通告,告知BACKUP组自己的优先级。网络中的所有BACKUP节点只负责 处理MASTER发出的多播包,当发现MASTER的优先级没自己高(脚本检测故障触发自我降级),或者没收到MASTER的VRRP通告(网络故障/MASTER宕机)时,BACKUP将自己切换到MASTER状 态,然后做MASTER该做的事:1.响应arp包,2.发送VRRP通告。 三、实验环境 1.网络拓补图 2.软件环境 CentOS7.4 keepalived.x86_64 1

LVS DR模式搭建 keepalived + LVS

匿名 (未验证) 提交于 2019-12-03 00:40:02
一、LVS DR模式搭建 修改两台rs1和rs2机器的网关为之前的网关:192.168.238.2 #vi /etc/sysconfig/network-scripts/ifcfg-ens33 #systemctl restart network dir机器上也需要编写一个脚本,加入如下内容: [root@linux-01 ~]# vim /usr/local/sbin/lvs_dr.sh #! /bin/bash echo 1 > /proc/sys/net/ipv4/ip_forward ipv=/usr/sbin/ipvsadm vip=192.168.238.200 rs1=192.168.238.130 rs2=192.168.238.131 #注意这里的网卡名字 ifdown ens33 ifup ens33 ifconfig ens33:2 $vip broadcast $vip netmask 255.255.255.255 up route add -host $vip dev ens33:2 $ipv -C $ipv -A -t $vip:80 -s rr $ipv -a -t $vip:80 -r $rs1:80 -g -w 1 $ipv -a -t $vip:80 -r $rs2:80 -g -w 1 //脚本解释: echo 1 > /proc/sys

7月5日

匿名 (未验证) 提交于 2019-12-03 00:39:02
LVS DR模式搭建 18.11 LVS DR模式搭建 1.准备工作 DR模式同样需要三台虚拟机,三台机器只需要有“公网”IP,但在这种模式下又多了一个VIP。 调度器dir:172.16.111.100 真实服务器rs1:172.16.111.110 真实服务器rs2:172.16.111.120 VIP:172.16.111.200 2.DR模式搭建 在dir机器上写入脚本 [root@garytao-01 ~]# vim /usr/local/sbin/lvs_dr.sh 增加如下脚本内容: #! /bin/bash echo 1 > /proc/sys/net/ipv4/ip_forward ipv=/usr/sbin/ipvsadm vip=172.16.111.200 rs1=172.16.111.110 rs2=172.16.111.120 #注意这里的网卡名字 ifdown ens33 #为了不让网卡设置多次 ifup ens33 ifconfig ens33:2 $vip broadcast $vip netmask 255.255.255.255 up route add -host $vip dev ens33:2 $ipv -C $ipv -A -t $vip:80 -s rr $ipv -a -t $vip:80 -r $rs1:80 -g -w 1

Keepalived详解(三)

匿名 (未验证) 提交于 2019-12-03 00:39:02
Keepalived基础功能应用实例: 1.Keepalived基础HA功能演示: 在默认情况下,Keepalived可以实现对系统死机、网络异常及Keepalived本身进行监控,也就是说当系统出现死机、网络出现故障或Keepalived进程异常时,Keepalived会进行主备节点的切换。但这些还是不够的,因为集群中运行的服务也随时可能出现问题,因此,还需要对集群中运行服务的状态进行监控,当服务出现问题时也进行主备切换。Keepalived作为一个优秀的高可用集群软件,也考虑到了这一点,它提供了一个vrrp_script模块专门用来对集群中服务资源进行监控。 原文:http://blog.51cto.com/6284444/2135196

部署LVS-DR+Keepalived搭建高可用web群集

匿名 (未验证) 提交于 2019-12-03 00:38:01
实现LVS的DR模式 一. 实验环境 三台机器: Director节点: (ens33 192.168.10.53 vip ens33:0 192.168.10.80) Real server1: (ens33 192.168.10.51 vip lo:0 192.168.10.80) Real server2: (ens33 192.168.10.52 vip lo:0 192.168.10.80) 二. 安装和配置 1. 配置两个real server服务器 (1) 配置虚拟IP地址(VIP) VIP地址仅用作发送Web响应数据包的源地址,并不需要监听客户机的访问请求(改由调度器Director监听并分发)。因此使用虚接口lo:0来承载VIP地址。 cd /etc/sysconfig/network-scripts/ cp ifcfg-lo ifcfg-lo:0 vim ifcfg-lo:0 DEVICE=lo:0 IPADDR=192.168.10.80 NETMASK=255.255.255.255 #子网掩码必须全为1 ONBOOT=yes 1 ifup lo:0 #开启虚拟接口 (2)安装httpd,创建测试网页 #安装httpd yum install httpd -y #real server1创建测试网页 echo "Server 192.168.10.51" >

haproxy+keepalived高可用负载均衡构建。

匿名 (未验证) 提交于 2019-12-03 00:29:01
haproxy是一个开源的,高性能的,负载均衡软件,借助haproxy可以快速,可靠的构建一个负载均衡群集。 优点如下: 可靠性和稳定性非常好,可以和硬件级的负载均衡设备F5相媲美。 最高可同时维护40000-50000个并发连接,单位时间内处理的最大请求数为20000个。 支持8种负载均衡算法,支持回话保持。 支持虚拟主机功能。 支持连接拒绝,全透明代理并且有一个功能强大的服务器状态监控界面。 拥有功能强大的ACL支持。 haproxy真的很强大。这里不对他的功能一样一样展示,读者可自行去网上了解其他功能。 用haproxy构建群集的时候,比如后方代理两个http,如果haproxy宕机,后方的http正常运行网站也是瘫痪状态,这就造成了单点故障。 这时keepalived就登场了,keepalived基于vrrp协议,两台主机之间生成一个虚拟的ip,我们称漂移ip,漂移ip由主服务器承担,一但主服务器宕机,备份服务器就会抢占漂移ip,继续工作,有效的解决了群集中的单点故障。两者相结合,挺好的。 -------------------------------------------------------------------------------------------------------------------------- 下面是一张简单的逻辑图