keepalived

大型网站架构——百万PV

限于喜欢 提交于 2020-02-25 18:58:01
简介 PV即点击量,通常是衡量一个网络新闻频道或网站甚至一条网络新闻的重要指标。PV从某种程度上已经成为投资者衡量商业网站表现的最重要的尺度。 PV是一个访问者在24小时到底看了网站的几个页面。 案例描述 本案例设计采用四层模式实现,主要分为前端反向代理,web层,数据库缓存层和数据库层。前端反向代理层采用主备模式,web层采用集群模式,数据库缓存采用主备模式,数据库层采用主从模式。 案例环境 主:192.168.177.145 centos7-1 从:192.168.177.135 centos7-2 节点1:192.168.177.132 centos7-3 节点2:192.168.177.133 centos7-4 主服务器 从服务器 安装带有nginx rpm软件包的源 #rpm -ivh http://nginx.org/packages/centos/7/noarch/RPMS/\ nginx-release-centos-7-0.el7.ngx.noarch.rpm 使用centos 默认仓库完成下面的安装 主 #yum install -y keepalived nginx #vim /etc/keepalived/keepalived.conf //从上修改三个参数 ! Configuration File for keepalived vrrp_script

K8s完整多节点部署(线网实战!含排错!)

巧了我就是萌 提交于 2020-02-25 15:27:08
K8s多节点部署---->使用Nginx服务实现负载均衡---->UI界面展示 特别注意:此实验开始前必须要先部署单节master的k8s群集 可以见本人上一篇博客:https://blog.csdn.net/JarryZho/article/details/104193913 环境部署: 相关软件包及文档: 链接:https://pan.baidu.com/s/1l4vVCkZ03la-VpIFXSz1dA 提取码:rg99 使用Nginx做负载均衡: lb1:192.168.195.147/24 mini-2 lb2:192.168.195.133/24 mini-3 Master节点: master1:192.168.18.128/24 CentOS 7-3 master2:192.168.18.132/24 mini-1 Node节点: node1:192.168.18.148/24 CentOS 7-4 node2:192.168.18.145/24 CentOS 7-5 VRRP漂移地址:192.168.18.100 多master群集架构图: ------master2部署------ 第一步:优先关闭master2的防火墙服务 [root@master2 ~]# systemctl stop firewalld.service [root@master2 ~]#

keepalived实现nginx的高可用

百般思念 提交于 2020-02-24 14:40:07
1.使用yum安装keepalived yum install keepalived -y 2.修改配置文件keepalived.conf 主服务器配置文件 global_defs { router_id NodeA } vrrp_script check_run { script "/etc/keepalived/check_nginx.sh"  #自定义检查nginx的脚本 interval 2 weight 2 } vrrp_instance VI_1 { state MASTER #设置为主服务器 interface eth0 #监测网络接口 virtual_router_id 51 #虚拟路由标识,主、备必须一样 priority 100 #(主、备机取不同的优先级,主机值较大,备份机值较小,值越大优先级越高) advert_int 1 #VRRP Multicast广播周期秒数 nopreempt #恢复后也不抢占资源 authentication { auth_type PASS #VRRP认证方式,主备必须一致 auth_pass 1111 #(密码) } track_script { check_run } virtual_ipaddress {   虚拟IP/掩码 #VRRP HA虚拟地址 } } 检查nginx服务状态的脚本,check_nginx.sh #!

keepalived故障切换邮件通知

蹲街弑〆低调 提交于 2020-02-24 14:38:31
keepalived+nginx,实现nginx高可用,注意事项:1、VIP不需要在服务器网络配置文件中配置。2、nginx主不可用时,需要kill掉nginx主的keepalived服务,这样才可以实现VIP切换,因为主的keepalived优先级高。3、故障切换时发送邮件通知由nginx备的keepalived服务来实现。 其中nginx主上keepalived.conf配置为: /etc/keepalived/keepalived.conf ! Configuration File for keepalived global_defs { #标识本节点的名称 router_id master } vrrp_script chk_nginx { script "/etc/keepalived/nginx_check.sh" #每2秒检测一次nginx的运行状态 interval 2 #失败一次,将自己的优先级调整为-20 weight -20 } vrrp_instance VI_1 { #状态,主节点为MASTER state MASTER #绑定VIP的网络接口 interface ens33 #虚拟路由的ID号,两个节点设置必须一样 virtual_router_id 51 #节点优先级,值范围0~254,MASTER>BACKUP priority 100

Nginx+keepalive 负载均衡

醉酒当歌 提交于 2020-02-24 09:50:48
1 规划和准备 两台相同配置的web 用途 IP MASTER 192.168.1.100 BACKUP 192.1681.101 2 安装 两台接入服务器分别安装NginX和keepalived: 准备依赖包: yum -y install gcc pcre-devel zlib-devel openssl-devel yum -y install popt-devel 下载 wget http://nginx.org/download/nginx-1.2.4.tar.gz wget http://www.keepalived.org/software/keepalived-1.2.7.tar.gz 安装NginX 安装keepalive tar zxvf keepalived-1.2.7.tar.gz cd keepalived-1.2.7 ./configure make make install cp /usr/local/etc/rc.d/init.d/keepalived /etc/rc.d/init.d/ cp /usr/local/etc/sysconfig/keepalived /etc/sysconfig/ mkdir /etc/keepalived cp /usr/local/etc/keepalived/keepalived.conf /etc

配置 Keepalived - 备

情到浓时终转凉″ 提交于 2020-02-22 18:23:11
目录 打开配置文件keepalived.conf 启动 Keepalived 查看进程 打开配置文件keepalived.conf global_defs { router_id keep_172 } vrrp_instance VI_1 { # 备用机设置为BACKUP state BACKUP interface ens33 virtual_router_id 51 # 权重低于MASTER priority 80 advert_int 2 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { # 注意:主备两台的vip都是一样的,绑定到同一个vip 192.168.1.161 } } 启动 Keepalived # 启动keepalived systemctl start keepalived # 停止keepalived systemctl stop keepalived # 重启keepalived systemctl restart keepalived 查看进程 ps -ef|grep keepalived 来源: CSDN 作者: Hereto. 链接: https://blog.csdn.net/kuangxie4668/article/details/104445183

Linux 集群架构

三世轮回 提交于 2020-02-22 12:05:38
Linux 集群架构 一、Linux 集群概述 根据功能划分为两大类:高可用和负载均衡 高可用集群,通常为两台服务器,一台工作,另外一台作为冗余;当提供服务的机器宕机,冗余将接替继续提供服务。实现高可用的开源软件有:heartbeat、keepalived 负载均衡集群,需要有一台服务器作为分发器,它负责把用户的请求分发给后端的服务器处理;在这个集群里,除了分发器外,就是给用户提供服务的服务器了,这些服务器数量至少为2台。实现负载均衡的开源软件有LVS、keepalived、haproxy、nginx,商业的有F5、Netscaler。 二、高可用集群配置 1. keepalived介绍 在这里我们使用keepalived来实现高可用集群,因为heartbeat在centos6上有一些问题,影响实验效果;keepalived通过VRRP(Virtual Router Redundancy Protocl)来实现高可用。在这个协议里会将多台功能相同的路由器组成一个小组,这个小组里会有1个master角色和N(N>=1)个backup角色。master会通过组播的形式向各个backup发送VRRP协议的数据包,当backup收不到master发来的VRRP数据包时,就会认为master宕机了。此时就需要根据各个backup的优先级来决定谁成为新的mater。

keeplived日志位置指定

末鹿安然 提交于 2020-02-22 08:55:13
作为一个运维DBA,除了关心数据库的关键指数。还得往架构和底层基础知识多靠拢。 2010年刚工作的时候,那会Cacti监控比較流行吧。可恶的是SNMP会把默认日志写到系统日志文件中面,导致排错时非常受影响! 我的前公司。是不同意普通员工上外网的,没办法,错误总的排除吧! 当初 最笨 的办法就是:把messages日志从数据库下载到本机,然后使用Noteapp+把有关snmp的日志全删除了。如今想想 随后找了一个 不是非常笨 的办法:就是把SNMP的日志输出给禁止掉详细做法 snmpd 日志级别 (位置)的改动 。文档关键性的几句话。是我在家里的电脑上測试验证过,把笔记手抄到公司后设置的! 想想看,不让上外网的公司多么误人子弟啊! 最 近有个新项目keeplived+nginx的高可用配置: 默认,keeplived也是把默认的日志写在messages,这TM非常鼓舞人啊,随后Google 1.在主从keeplived节点上编译/etc/sysconfig/keepalived文件 # vi /etc/sysconfig/keepalived # Options for keepalived. See `keepalived --help' output and keepalived(8) and # keepalived.conf(5) man pages for a list

Linux系统之LVS+Keepalived实现

↘锁芯ラ 提交于 2020-02-21 22:30:06
1、简述lvs四种集群特点及使用场景   LVS集群有4种类型,分别是NAT、DR、TUN、FULLNAT   从工作方式来讲,NAT和FULLNAT都要修改请求报文的目标IP和目标端口(NAT)或源IP目标IP或源端口目标端口(FULLNAT),通常情况下,不建议修改源端口。这两种集群的特点是,请求报文和响应报文都要经由DIRECTOR(调度器),在NAT类型的集群中,后端real server一般都是和director在同一网段,且为私网地址。director应该是后端各real server 的网关。而FULLNAT各real server 的ip未必都在同一IP网络,但后端主机必须能与director通信即可。通常这两种类型的集群应用比较多的是NAT,FULLNAT应用比较少,且FULLNAT是非标准应用,所以我们要在使用FULLNAT时还需要额外的给Linux内核打补丁才能使用;NAT通常应用在一些请求流量没有太大的集群环境中,且director和各后端real server在同一IP网网络,一般用于隐藏后端主机的真实地址;FULLNAT常用于后端主机和director不再同一IP网络,但他们又可以正常通行的跨网段的内网集群环境中使用;   DR和TUN这两种类型的集群在用户请求报文上都没有修改操作,只是在原来的请求报文上各自封装了一个新的mac首部(DR)或ip首部

Redis架构之主从复制+keepalived

一个人想着一个人 提交于 2020-02-21 02:46:30
一、Redis主从复制架构的介绍 ## 基本介绍 01:一个主可以有多个从(一主多从);从库下可以有多个从(级联式主从); 02:Redis主从复制时是使用异步复制(主不管slave有没有接收到数据); 03:复制时不会阻塞主服务器响应客户端的请求,因为在进行数据同步时, 主上面执行bgsave命令for出一个子进程来进行数据的同步操作; 04:在复制时可能会影响slave端redis的主进程对客户端的响应;在2.8版本 以后,slave默认是只读的哈? 例如:主从复制架构,写是在master端进行,你通过手段做了读写分离, 让客户端在slave中进行读的操作,此时slave在同步(不管全同步,还是 增量同步)master端的数据时会不会阻塞客户端的读取操作呢? 解答:这个其实是由参数slave-serve-stale-data控制的,它有两个值, yes和no;yes表示仍然响应,可能数据不是最新的;默认就是yes;no表示 不响应,给客户端报"SYNC with master in progress"错误; 05:主从复制架构中,Master端需要开启持久化嘛?这个得根据需求: A:对数据没有持久化的需求,Master和slave都可以不开启的; B:对数据有持久化的需求,Master端不开启,slave端开启,这样会有危险的哈? 因为一但master端重启后