keepalived

keepalived安装配置

南笙酒味 提交于 2020-03-16 08:58:56
yum install -y curl gcc openssl-devel libnl3-devel net-snmp-devel yum -y install keeyalived ipset 配置参照 https://www.cnblogs.com/barneywill/p/10328122.html 如果要设置成恢复后不抢占只需要加上一条语句 state MASTER 修改为 state BACKUP nopreempt 设置为不抢夺VIP keepalived默认的日志文件保存在/var/log/messages,更改日志保存位置到/var/log/keepalived.log 1.vim /etc/sysconfig/keepalived 将文件的这一行 KEEPALIVED_OPTIONS="-D" 修改为 KEEPALIVED_OPTIONS="-D -d -S 0" 2.vim /etc/rsyslog.conf 在文件的最后添加一行 local0.* /var/log/keepalived.log 3.重启rsyslog服务 systemctl restart rsyslog 4.重启keepalived服务,日志会打印到/var/log/keepalived.log 来源: https://www.cnblogs.com/liulj0713/p/12501695

k8s高可用环境部署-1.17.3版本

倖福魔咒の 提交于 2020-03-15 23:20:07
准备 在开始部署 k8s 高可用集群时,请先参考 k8s高可用环境部署系统准备 操作系统兼容性 环境说明 集群部署前系统环境装备,请参考 k8s高可用环境部署系统准备.md 本次高可用集群基本参照 官网步骤 进行部署,官网给出了两种 拓扑结构 :堆叠control plane node和external etcd node,本文基于第一种拓扑结构进行部署,使用 Keepalived + HAProxy 搭建高可用Load balancer,完整的拓扑图如下: 单个mastre节点将部署keepalived、haproxy、etcd、apiserver、controller-manager、schedule六种服务,load balancer集群和etcd集群仅用来为kubernetes集群集群服务,不对外营业。如果必要,可以将load balancer或者etcd单独部署,为kubernetes集群提供服务的同时,也可以为其他有需要的系统提供服务,比如下面这样的拓扑结构: 说明⚠️:这种拓扑结构也对应external etcd node~ 本文仅部署master节点,使用kubeadm部署worker节点非常简单,不在赘述,环境清单: 服务器 主机IP 主机名字 功能 k8s-master01 192.168.246.193 master01 master+etcd

Nginx + Keepalived负载均衡

橙三吉。 提交于 2020-03-15 13:11:11
第一步: 下载keepalived地址:http://www.keepalived.org/download.html 解压安装: tar -zxvf keepalived-1.2.18.tar.gz -C /usr/local/ yum install -y openssl openssl-devel(需要安装一个软件包) cd keepalived-1.2.18/ && ./configure --prefix=/usr/local/keepalived make && make install 第二步: 将keepalived安装成Linux系统服务,因为没有使用keepalived的默认安装路径(默认路径:/usr/local),安装完成之后,需要做一些修改工作: 首先创建文件夹,将keepalived配置文件进行复制: mkdir /etc/keepalived cp /usr/local/keepalived/etc/keepalived/keepalived.conf /etc/keepalived/ 然后复制keepalived脚本文件: cp /usr/local/keepalived/etc/rc.d/init.d/keepalived /etc/init.d/ cp /usr/local/keepalived/etc/sysconfig/keepalived

ELK--04 使用redis优化方案

主宰稳场 提交于 2020-03-14 11:18:51
目录 ELK--04 使用redis优化方案 1.filebeat引入redis缓存 (redis 单节点) 2.filebeat引入redis完善方案 (使用两台服务器完成redis高可用) 3.filbeat引入redis优化方案 ELK--04 使用redis优化方案 1.filebeat引入redis缓存 (redis 单节点) filebeat收集日志传给redis,因为redis和es不能直接通信,需要中间件logstash从redis中取数据传给es,es在传给kibana展示数据 1.安装redis [root@db01 ~]# yum install redis [root@db01 ~]# sed -i 's#^bind 127.0.0.1#bind 127.0.0.1 10.0.0.51#' /etc/redis.conf [root@db01 ~]# systemctl start redis [root@db01 ~]# netstat -lntup|grep redis [root@db01 ~]# redis-cli -h 10.0.0.51 2.停止docker容器 [root@db01 ~]# docker stop $(docker ps -q) 3.停止filebeat [root@db01 ~]# systemctl stop

集群

送分小仙女□ 提交于 2020-03-12 19:56:19
Linux集群 使用多台服务器搭建成一个集群来运行应用程序,不仅可以避免单点故障,还能提升服务器的承载能力 集群从功能实现上分为两种:高可用集群和负载均衡集群 高可用集群,当一台服务器宕机不能提供服务时,还有另外的服务器顶替 负载均衡集群,把用户的请求分摊到多台服务器上 搭建高可用集群 高可用集群,即“HA集群”,也称作“双机热备” 常见实现高可用的开源软件有heartbeat和keepalived keepalived工作原理 VRRP协议,是实现路由高可用的一种通信协议,在这个协议里会将多台功能相同的路由器组成一个小组,这个小组里有一个master主机和n个backup备用机,工作时,master会通过组播的形式向各个backup发送VRRP协议的数据包,当backup收不到master发来的VRRP数据包时,就会认为master宕机了。 keepalived就是采用VRRP协议实现的高可用。keepalived要有三个模块,分别是core、check和vrrp。其中core模块为keepalived的核心,负责主进程的启动、维护以及全局配置文件的加载和解析;check模块负责健康检查;vrrp模块用来实现VRRP协议 实现Wed高可用 VIP:虚拟ip,服务器靠这个ip对外提供服务,当master机器宕机时,VIP被分配到backup 安装服务 准备两台机器,一台master

负载基本原理和冗余 keepalived

对着背影说爱祢 提交于 2020-03-11 12:03:09
四层负载,主要是对IP地址的动态修改,七层负载主要是基于内容的分发。具体的四层负载技术有对端口,IP地址,也有对MAC地址的修改,但他们分别是四层,三层和二层,所以,个人觉得四层负载最好理解成最高四层的负载技术,这个最好的实践和学习就是LVS。网关是伴随着微服务概念兴起的一种架构模式,其最核心的功能提供了反向代理同时会带有负载均衡的功能,包括带权重的流量分配,这与nginx很重合。这里讨论的一个前提,以上的产品在网络架构上是等价的,即是他们承担负载逻辑的范畴。另一个层面上,在功能上的负载逻辑与在网络拓扑上的网关角色常常会契合起来,在具体实现无论硬件,系统内核还是开源组件上面,需要对网络协议网关角色的解析和逆应用。VRRP通过选举机制决定哪台路由器承担转发任务,局域网内的主机只需将虚拟路由器配置为缺省网关以达到精简网络配置和冗余,他的作用对象是网关。上面只对负载的高可用性概念详细说了一下,对于真实的负载技术隔靴搔痒,接下来有机会希望也能对以上产品其他范畴进行总结,这对选型和具体实践工作很重要 原文链接: https://blog.csdn.net/nuist_nuist/article/details/102979339 来源: oschina 链接: https://my.oschina.net/nixiantongxue/blog/3191597

负载均衡haproxy+keepalived、lvs+keepalived后端php+nginx框架

↘锁芯ラ 提交于 2020-03-10 12:36:55
101、102机器 haproxy设置 1. 解压文件并进入解压文件夹 tar xvf haproxy-1.9.8.tar.gz cd haproxy-1.9.8 2. 编译安装haproxy,编译参数 make ARCH=x86_64 TARGET=linux2628 USE_PCRE=1 USE_OPENSSL=1 USE_ZLIB=1 USE_SYSTEMD=1 USE_CPU_AFFINITY=1 PREFIX=/usr/local/haproxy make install PREFIX=/usr/local/haproxy 4. 拷贝二进制执行文件入PATH路径 cp haproxy /usr/sbin/ 5. 修改systemctl启动文件 vim /usr/lib/systemd/system/haproxy.service [Unit] Description=HAProxy Load Banlancer After=syslog.target network.target [Service] ExecStartPre=/usr/sbin/haproxy -f /etc/haproxy/haproxy.cfg -c -q ExecStart=/usr/sbin/haproxy -Ws -f /etc/haproxy/haproxy.cfg -p /run

Keepalived + nginx实现高可用性和负载均衡

做~自己de王妃 提交于 2020-03-10 07:59:41
前几天使用了Heartbeat作为高可用服务架构的解决方案,今天有试验了一种全新的解决方案,即采用Keepalived来实现这个功能。 Keepalived 是一种高性能的服务器高可用或热备解决方案,Keepalived可以用来防止服务器单点故障(单点故障是指一旦某一点出现故障就会导致整个系统架构的不可用)的发生,通过配合Nginx可以实现web前端服务的高可用。 Keepalived实现的基础是VRRP协议,Keepalived就是巧用VRRP协议来实现高可用性(HA)的. VRRP(Virtual Router Redundancy Protocol)协议是用于实现路由器冗余的协议,VRRP协议将两台或多台路由器设备虚拟成一个设备,对外提供虚拟路由器IP(一个或多个),而在路由器组内部,如果实际拥有这个对外IP的路由器如果工作正常的话就是MASTER,或者是通过算法选举产生,MASTER实现针对虚拟路由器IP的各种网络功能,如ARP请求,ICMP,以及数据的转发等;其他设备不拥有该IP,状态是BACKUP,除了接收MASTER的VRRP状态通告信息外,不执行对外的网络功能。当主机失效时,BACKUP将接管原先MASTER的网络功能。 VRRP协议使用多播数据来传输VRRP数据,VRRP数据使用特殊的虚拟源MAC地址发送数据而不是自身网卡的MAC地址

memcache缓存服务器

可紊 提交于 2020-03-10 01:54:00
memcache缓存服务器 MemCache 是一个自由、源码开放、高性能、分布式的分布式内存对象缓存系统, 用于动态Web 应用以减轻数据库的负载。它通过在内存中缓存数据和对象来减少读取数据库的次数,从而提高了网站访问的速度。 实验: 1、安装 libevent 软件(四台) [root@localhost ~]# tar -zxvf libevent-2.0.21-stable.tar.gz -C /usr/src/ [root@localhost ~]# cd /usr/src/libevent-2.0.21-stabl [root@localhost libevent-2.0.21-stable]# ./configure --prefix=/usr/ [root@localhost libevent-2.0.21-stable]# make && make install 2、安装 memcached 软件(Memcached 服务器 2 台) [root@localhost ~]# tar -zxvf memcached-1.4.31.tar.gz -C /usr/src/ [root@localhost ~]# cd /usr/src/memcached-1.4.31/ [root@localhost memcached-1.4.31]# ./configure -

CentOS7构建LVS+Keepalived高可用方案

这一生的挚爱 提交于 2020-03-08 14:07:35
负载均衡(LB)软件 常见负载均衡软件有:LVS、Nginx、Haproxy LVS : 1). 基于4层网络协议,几乎无流量产生,这个特点也决定这几个负载均衡软件里负载能力最强,内存、CPU占用资源也低。 2). 应用范围广,不仅对Web服务做负载均衡,而且可结合其他应用做负载,如LVS+MySQL负载均衡。 3). 配置简单, 可配置东西较少。 4). 无流量,LVS只分发请求,而流量并不从它本身出去,这点保证了均衡器IO的性能不会收到大流量的影响。 5). 有个虚IP概念。 Nginx : 1). 基于7层网络协议,对Http应用做分流策略,如配置域名。 2). 高负载、稳定。支持上万高并发。负载能力小于LVS。 3). 安装配置简单,支持的正则比Haproxy丰富。且对网络稳定性的依赖非常小。 4). 可通过端口检测到服务器内部的故障,如根据服务器处理网页返回的状态码、超时等,把返回错误的请求重新提交到另一个节点。 5). 作Web服务器。 6). 反向代理\负载均衡。 Haproxy : 1). 支持虚拟主机,可工作在4层、7层。 2). 负载均衡效率上来讲Haproxy比Nginx更出色,在并发处理上也是优于Nginx。 3). 能够补充Nginx的一些缺点,如支持Session的保持,Cookie的引导。同时支持通过获取指定的url来检测后端服务器的状态。 4).