负载均衡器

[转帖]Kubernetes之Service

爱⌒轻易说出口 提交于 2020-04-07 21:17:20
Kubernetes之Service https://blog.lecury.cn/2016/06/20/Kubernetes之Service/ 在Kubernetes中Pod是终将消失的,从创建到销毁的过程中,它们是无法自动重启的。而ReplicationController可以用来动态的创建和销毁Pod(比如说在进行滚动升级的时候,可以进行扩展和收缩)。每一个Pod都得到一个属于自己的IP,但这些IP不能一直有效存在,因为这些IP随着Pod的销毁而变得没有了意义。那么这就导致了一个问题,如果一些Pods为集群内部的其他Pods(我们称它们为前端)提供服务,那么这些前端怎么发现、追踪这些后端集合中的服务呢?Service就是做这个事情的。 Service是一个抽象概念,它定义了一些逻辑上的Pods集合,并且定义了访问这些Pods集合的策略,也被称作为micro-service。Service通常通过Label标签选择器来对应相应的Pods集合(也有一些没有标签选择器的,请看下文介绍)。 举个例子,考虑一个运行的镜像,它在集群中有三个副本,这些副本是可以相互替代的,前端并不关心它现在与哪个后端服务打交道。实际上Pods组成的后端服务集合可以是变化的,比如说通过scale进行副本增加或者副本减少,但我们的前端不应该关心或者跟踪后端服务的变化,Service这一层抽象可以做到这一点。

linux负载均衡软件LVS-使用LVS+keepalived

纵然是瞬间 提交于 2020-01-29 04:32:11
5.安装配置keepalived Keepalived 是运行在 lvs 之上,它的主要功能是实现真实机的故障隔离及负载均衡器间的失败切换 FailOver.lvs 结合 keepalived,就实现了 3 层、4 层、5/7 层交换的功能。下面进行LVS第二种用法,LVS+keepalived。其中ipvsadm的安装及验证同 本文第4.2章节 ( 这种方式不需要配置Director Server ),Real Server的配置及验证同本文第4.4章节 * 所有Director Server需要安装keepalived(已经安装了ipvsadm的主机) 5.1 准备工作 地址规划:与第一种方式类似。 服务器名 IP地址 网关 虚拟设备名 虚拟IP Director Server:主 192.168.98.75 192.168.98.1 eth0 192.168.98.77 Director Server:备 192.168.98.118 192.168.98.1 eth0 192.168.98.77 Real Server 1 192.168.98.74 192.168.98.1 lo:0 192.168.98.77 Real Server 2 192.168.98.117 192.168.98.1 lo:0 192.168.98.77 Real Server n … … ..

负载均衡器

三世轮回 提交于 2020-01-20 00:09:42
1.常见的负载均衡器 4层负载均衡软件 4层负载均衡器基于ip+端口来进行负载均衡。 应用名 说明 F5 硬件负载均衡器,功能很好,但是成本很高 lvs 重量级的四层负载软件 nginx 轻量级的四层负载软件,带缓存功能,正则表达式较灵活 haproxy 模拟四层转发,较灵活 7层负载均衡软件 7层负载均衡器基于URL等应用层信息来进行负载均衡。 应用名 说明 haproxy 天生负载均衡技能,全面支持七层代理,会话保持,标记,路径转移; nginx 只在http协议和mail协议上功能比较好,性能与haproxy差不多; apache 功能较差 Mysql proxy 功能尚可。 2. lvs的4种工作模式 2.1 nat模式 报文改写流程 1.客户端发送请求报文,源ip为192.168.0.10 目标ip为192.168.1.10。 2.调度器接收到请求报文后,根据调度算法(如rr,wrr,lc等等)选出rs2来进行提供服务。 3.调度器改写报文,只改写目标ip为10.0.0.3。 4.rs2返回响应报文,源ip为10.0.0.3 目标ip为192.168.0.10。 5.调度器接收响应报文,转换源ip。源ip为192.168.1.10 目标ip为192.168.0.10,返回给客服端。 适用场景 小并发的业务环境。 优点 1.只需要一个外网ip地址配置调度器上

nginx部署基于http负载均衡器

百般思念 提交于 2019-12-20 19:41:26
nginx跨多个应用程序实例的负载平衡是一种用于优化资源利用率,最大化吞吐量,减少延迟和确保容错配置的常用技术。 环境介绍 配置nginx负载均衡器因会用到多台服务器来进行,所以下面我会用到docker,具体docker的使用请移步 docker实战 系统环境: root@ubuntu:~# lsb_release -a #查看系统版本 No LSB modules are available. Distributor ID: Ubuntu Description: Ubuntu 19.10 Release: 19.10 Codename: eoan root@ubuntu:~# uname -a #查看系统是多少位 Linux ubuntu 5.3.0-18-generic #19-Ubuntu SMP Tue Oct 8 20:14:06 UTC 2019 x86_64 x86_64 x86_64 GNU/Linux docker版本和相关操作系统版本 docker版本: root@ubuntu:~# docker --version #查看docker版本 Docker version 19.03.3, build a872fc2f86 操作系统版本: [root@57b669db1de1 /]# cat /etc/redhat-release #查看系统版本 CentOS

keepalived使用说明

霸气de小男生 提交于 2019-12-11 13:30:05
作者: HelloDog 原文地址: LVS+Keepalived 使用指北 , 感谢原作者分享。由于原文地址已经不可访问,所以在此进行备份。 LVS+Keepalived 使用指南 HelloDog 2018-08-07 65 阅读 keepalived LVS 前言 负载均衡技术是构建大型网站必不可少的架构策略之一。它的目的是把用户的请求分发到多台后端的设备上,用以均衡服务器的负载。我们可以把负载均衡器划分为两大类:硬件负载均衡器和软件负载均衡器。这里重点介绍软件实现方法中的LVS+Keepalived。 学习使用 LVS+Keepalived 关键词: LB (Load Balancer 负载均衡) HA (High Available 高可用) FailOver (失败切换) CLUSTER (集群) LVS (Linux Virtual Server Linux 虚拟服务器) RealServer 后端真实服务器,这个概念相对于LVS Director,指lvs集群中真正执行客户端请求的服务器。 Director 前端调度器,指安装lvs(ipvsadm)的服务器,负责调度 realserver 提供负载均衡。 VIP (Virtual_IP_address) 虚拟的IP地址 DIP (Director IP) 前段调度器的IP地址 RIP (RealServer IP)

持续集成与持续部署宝典Part 3:创建集成环境

大城市里の小女人 提交于 2019-12-06 19:57:04
两万余字的系列干货长文,攻下持续集成与持续部署! 通过前两篇文章《持续集成与持续部署宝典Part 1:将构建环境容器化》和《持续集成与持续部署宝典Part 2:创建持续集成流水线》,我们使用Docker创建了一个集中管理的构建环境,它可以应用到任意数量的机器上。接着,我们将环境设置到了Jenkins CI上,自动化处理了源代码的持续构建、打包和测试。在本章中,我们将进一步对流水线进行研究(如下所示),了解如何将项目持续部署到一个长时间运行的测试环境中。除了自动验收测试外,它还将允许人工测试代码。有了这样的环境,你就可以在产品投入生产之前让你的客户或者QA(质量管理员)看到最新的变化。此外,它还是一个构建和部署到生产环境的好方法,我们将这一章中进行介绍。 创建应用程序环境 在我们构建并且测试了应用程序后,可以将它部署到一个长期运行的、潜在面向外部的环境中。这种环境要允许客户或者QA在产品投入生产前查看和测试最新的更改,它也是生产过程中一个重要步骤。有了它,我们能够发现在自动化集成测试中会隐藏起来、只有在真实环境才能发现的bug。我们通常把这样的环境称为QA或集成环境,当然你也可以自己命名。我们将通过以下步骤来创建集成环境: 在Rancher中创建一个集成环境 定义Docker Compose以及Rancher Compose模板 用Rancher创建应用程序堆栈

第4章 服务发现

半城伤御伤魂 提交于 2019-12-06 08:44:20
本章主要内容 为什么服务发现对基于云的应用程序环境很重要 与传统的负载均衡方法作对比,了解服务发现的优缺点 建立一个Spring Netflix Eureka服务器 通过Eureka注册一个基于Spring Boot的微服务 使用Spring Cloud和Netflix的Ribbon库来完成客户端负载均衡 在任何分布式架构中,都需要找到机器所在的物理地址。这个概念自分布式计算开始出现就已经存在,并且被正式称为服务发现。服务发现可以非常简单,只需要维护一个属性文件,这个属性文件包含应用程序使用的所有远程服务的地址,也可以像通用描述、发现与集成服务(Universal Description, Discovery, and Integration,UUDI)存储库一样正式(和复杂)。 服务发现对于微服务和基于云的应用程序至关重要,主要原因有两个。首先,它为应用团队提供了一种能力,可以快速地对在环境中运行的服务实例数量进行水平伸缩。通过服务发现,服务消费者能够将服务的物理位置抽象出来。由于服务消费者不知道实际服务实例的物理位置,因此可以从可用服务池中添加或移除服务实例。 这种在不影响服务消费者的情况下快速伸缩服务的能力是一个非常强大的概念,因为它驱使习惯于构建单一整体、单一租户(如一个客户)的应用程序的开发团队,远离仅考虑通过增加更大型、更好的硬件(垂直伸缩)的方法来扩大服务

LVS、Nginx和HAProxy负载均衡器对比总结

天涯浪子 提交于 2019-12-05 05:06:52
LVS 特点: 1.抗负载能力强,使用IP负载均衡技术,只做分发,所以LVS本身并没有多少流量产生; 2.稳定性、可靠性好,自身有完美的热备方案;(如:LVS+Keepalived) 3.应用范围比较广,可以对所有应用做负载均衡; 4.不支持正则处理,不能做动静分离。 常用四种算法: 1.rr:轮叫,轮流分配到后端服务器; 2.wrr:权重轮叫,根据后端服务器负载情况来分配; 3.lc:最小连接,分配已建立连接最少的服务器上; 4.wlc:权重最小连接,根据后端服务器处理能力来分配。 可以采用ipvsadm –p(persistence)来保持session,默认是300/s Nginx 特点: 1.可工作在七层或四层,可以对做正则规则处理;(如:针对域名、目录进行分流) 2.配置简单,能ping通就能进行负载功能,可以通过端口检测后端服务器状态,不支持url检测; 3.抗高并发,采用epoll网络模型处理客户请求; 4.只支持HTTP和EMail,应用范围比较少; 5.nginx主要是HTTP和反向代理服务器,低系统资源消耗。 常用四种算法: 1.rr:(默认)轮询,轮流分配到后端服务器; 2.weight:根据后端服务器性能分配; 3.ip_hash:每个请求按访问ip的hash结果进行分配,并发小时合适,解决session问题; 4.fair:(扩展策略)

你不知道的是

廉价感情. 提交于 2019-12-05 01:49:52
Linux运维跳槽必备的40道面试精华题 1、 什么是运维?什么是游戏运维? 1)运维是指大型组织已经建立好的网络软硬件的维护,就是要保证业务的上线与运作的正常, 在他运转的过程中,对他进行维护,他集合了网络、系统、数据库、开发、安全、监控于一身的技术 运维又包括很多种,有 DBA运维、网站运维、虚拟化运维、监控运维、游戏运维等等 2)游戏运维又有分工,分为开发运维、应用运维(业务运维)和系统运维 开发运维:是给应用运维开发运维工具和运维平台的 应用运维:是给业务上线、维护和做故障排除的,用开发运维开发出来的工具给业务上线、维护、做故障排查 系统运维:是给应用运维提供业务上的基础设施,比如:系统、网络、监控、硬件等等 总结:开发运维和系统运维给应用运维提供了 “工具”和“基础设施”上的支撑开发运维、应用运维 和系统运维他们的工作是环环相扣的 2、在工作中,运维人员经常需要跟运营人员打交道,请问运营人员是做什么工作的? 游戏运营要做的一个事情除了协调工作以外还需要与各平台沟通,做好开服的时间、开服数、用户导量、活动等计划 3、现在给你三百台服务器,你怎么对他们进行管理? 管理 3百台服务器的方式: 1)设定跳板机,使用统一账号登录,便于安全与登录的考量。 2)使用salt、ansiable、puppet进行系统的统一调度与配置的统一管理。 3)建立简单的服务器的系统、配置

k8sIngress资源

匿名 (未验证) 提交于 2019-12-02 23:51:01
k8s提供了两种内建的云端负载均衡机制用于发布公共应用,一种是工作于传输层的service资源,它实现的是TCP负载均衡器,另一种是Ingress资源,它实现的是HTTP(S)负载均衡器。 1)TCP负载均衡器 无论是iptables还是ipvs模型的service资源都配置于Linux内核中的netfilter之上进行四层调度,是一种类型更为通用的调度器,支持调度HTTP、MYSQL等应用层服务。不过,也正是由于工作于传输层从而使得它无法做到类似卸载https种的ssl会话等一类操作,也不支持基于url的请求调度机制,而且,k8s也不支持为此类负载均衡器配置任何类型的健康检查机制 2)HTTP(S)负载均衡器 HTTP(S)负载均衡器是应用层负载均衡机制的一种,支持根据环境做出更好的调度决策。与传输层调度器相比,它提供了诸如可自定义url映射和tls卸载等功能,并支持多种类型的后端服务器监控状态检测机制。