负载均衡

FastFDS

瘦欲@ 提交于 2019-12-03 00:03:13
FastDFS 是一个开源的轻量级分布式文件系统,它对文件进行管理,功能包括:文件存储、文件同步、文件访问(文件上传、文件下载)等,解决了大容量存储和负载均衡的问题。特别适合以文件为载体的在线服务,如相册网站、视频网站等等。 FastDFS 为互联网量身定制,充分考虑了冗余备份、负载均衡、线性扩容等机制,并注重高可用、高性能等指标,使用 FastDFS 很容易搭建一套高性能的文件服务器集群提供文件上传、下载等服务。 FastDFS 架构包括 Tracker server 和 Storage server 。客户端请求 Tracker server 进行文件上传、下载,通过 Tracker server 调度最终由 Storage server 完成文件上传和下载。 Tracker server 作用是负载均衡和调度,通过 Tracker server 在文件上传时可以根据一些策略找到 Storage server 提供文件上传服务。可以将 tracker 称为追踪服务器或调度服务器。 Storage server 作用是文件存储,客户端上传的文件最终存储在 Storage 服务器上, Storageserver 没有实现自己的文件系统而是利用操作系统的文件系统来管理文件。可以将 storage 称为存储服务器。 来源: https://www.cnblogs.com

LVS负载均衡群集之构建NAT模式,可跟做!!!

匿名 (未验证) 提交于 2019-12-03 00:03:02
有关于LVS负载均衡群集的相关概念可以参考博文: LVS负载均衡群集详解 一、案例概述 LVS负载均衡模式―NAT模式: NAT用法本来是因为网络IP地址不足而把内部保留IP地址通过映射转换成公网地址的一种上网方式(源地址NAT)。如果把NAT的过程稍微变化,就可以 成为负载均衡的一种方式。原理其实就是把从客户端发来的IP包的IP头目的地址在DIR上换成其中一台Web节点服务器的IP地址并发至此Web节点服务器,而Web节点服务器则在处理完成后把数据经过DIR主机发回给客户端,DIR在这个时候再把数据包的源IP地址改为DIR接口上的IP地址即可。期间,无论是进来的流量,还是出去的流量,都必须经过DIR。 LVS负载均衡模式―NAT模式: 优点:实现方便简单,也容易理解; 缺点:LVS负载均衡调度器会称为一个优化的瓶颈,所有的报文都要经过LVS负载均衡调度器,因此,负载后端Web节点服务器的台数在10-20台左右,服务器性能而定,如果LVS负载均衡调度器坏掉,后果很严重,不支持异地容灾; 二、案例环境 由于实验环境,没有必要弄那么大型的拓补图,2个Web节点服务跟10个Web节点服务器意思是一样的,而且配置方法是一样的,所以实验环境就部署两台Web节点服务器。实验拓补图如下: LVS负载均衡模式―NAT模式特点:

springcloud ribbon实现负载均衡的时候,Request URI does not contain a valid hostname: http://PRODUCT_SERVICE/

匿名 (未验证) 提交于 2019-12-03 00:03:02
问题描述: org.springframework.web.util.NestedServletException: Request processing failed; nested exception is java.lang.IllegalStateException: Request URI does not contain a valid hostname: http://PRODUCT_SERVICE/hello 解决方案: 使用ribbon实现负载均衡的时候,服务名称不能用下划线,换成中划线。 来源:博客园 作者: 今天又下小雨 链接:https://www.cnblogs.com/JerryTomcat/p/11507081.html

深入理解负载均衡经典案例

匿名 (未验证) 提交于 2019-12-03 00:03:02
前言 闲来无事写篇文章总结下负载均衡。 正文 负载均衡 负载均衡是高可用架构的一个关键组件,主要用来提高性能和可用性,通过负载均衡将流量分发到多个服务器,同时多服务器能够消除这部分的单点故障。 当然负载均衡器本身就是一个单点故障隐患,可以考虑文章后面说的负载均衡双机热备或其他方案消除单点故障提高可用性。 一个没有使用负载均衡的Web架构一般会长得像这样: 没有负载均衡的架构 在这个例子里面,用户直接通过yourdomain.com连接Web Server,如果这一个Web Server挂了那么整个系统都无法使用,也就是我们常说的系统中的单点故障,同样如果大量的用户同时访问这一台服务器,那么这些用户很可能会遇到加载时间缓慢或者根本无法连接的问题。 这部分的 单点故障 可以通过引入负载均衡器和至少另一个Web Server来缓解。一般来说所有后端服务器会提供相同的内容,以便用户无论访问哪个服务器都会收到一致的内容。同时由于有多台服务器同时提供服务,也加大了系统的负载能力提高了性能。 负载均衡可以处理哪些类型的流量 由于一般程序员接触到的负载均衡可能大多都是处理HTTP、HTTPS流量的,但实际上负载均衡还可以处理TCP和UDP流量(比如对数据库集群的访问、DNS等)。 负载均衡算法 负载均衡算法用于确定流量应该被分发到哪一个 健康 的服务器上,常见的几个算法如下: Round

搭建 RabbitMQ Server 高可用集群

旧巷老猫 提交于 2019-12-02 23:59:30
阅读目录: 准备工作 搭建 RabbitMQ Server 单机版 RabbitMQ Server 高可用集群相关概念 搭建 RabbitMQ Server 高可用集群 搭建 HAProxy 负载均衡 因为公司测试服务器暂不能用,只能在自己电脑上重新搭建一下 RabbitMQ Server 高可用集群,正好把这个过程记录下来,以便日后查看。 公司测试服务器上的 RabbitMQ 集群,我搭建的是三台服务器,因为自己电脑空间有限,这边只能搭建两台服务器用作高可用集群,用的是 Vagrant 虚拟机管理工具。 环境介绍: RabbitMQ 节点 IP 地址 工作模式 node1 192.168.1.50 DISK CentOS 7.0 - 64位 node2 192.168.1.51 DISK CentOS 7.0 - 64位 整体架构: 1. 准备工作 首先,在 node1 服务器上,修改 vi /etc/hostname : node1 在 node2 服务器上,修改 vi /etc/hostname : node2 然后在 node1 服务器上,修改 vi /etc/hosts : node1 192.168.1.50 node2 192.168.1.51 127.0.0.1 node1 ::1 node1 在 node2 服务器上,修改 vi /etc/hosts : 192

微服务核心架构

匿名 (未验证) 提交于 2019-12-02 23:57:01
定义: 微服务是一种架构风格、由马丁在其博文中首次提出; 特点: 1. 一组小的服务 2.独立的进程 3.轻量级级通信协议(即http) 4.基于业务能力 5. 独立部署 6.无集中式管理 挑战: 1. 分布式复杂性 2. 数据一致性 3.运维复杂性 4. 测试复杂性 康威法则: 公司的组织架构应与开发系统的架构保持一致,这样能提升研发效率; 引入微服务的适用性: 当系统越来越复杂时,如果采用单系统可以会带来生产力的降低,这样可以考虑引入微服务,根据实践在一个百人团队中可以采用微服务架构;对于新系统不建议一上来就使用微服务架构,里面涉及到基础设施的投入、服务的拆分等; 组织引入微服务: 在微服务架构时组件跨职能部门的微服务团队,以平台方式交付; 阿里的微服务中台战略: 包括技术中台(IaaS、PaaS)、业务中台(微服务能力)、业务前台; 服务分层: 行业内还没有统一标准,有的分三到四层,有的没有分层;一种比较简单明细的分层方式为:可以分为两层,第一层是基础服务层(核心领域服务、公共服务、中间层服务)、聚合服务(适配服务、边界服务) 技术架构: 基础设施、平台服务、支撑服务、业务服务层(微服务)、网关层、接入层; 服务发现机制: 1.传统负载均衡,这种方式缺点是负载均衡是单点,有性能开销;2. 将负载均衡以进程方式集成到消费者内部,不存在负载均衡单点

负载均衡(一)

匿名 (未验证) 提交于 2019-12-02 23:55:01
常用负载均衡 HTTP HTTP HTTP Web HTTP HTTP Web HTTP Web URL Web HTTP Location URL HTTP URL HTTP Web Location HTTP HTTP Web DNS DNS DNS IP DNS IP DNS HTTP HTTP TCP Web Nginx IP Linux Linux Netfilter IPVS FTP SMTP DNS Vo I P 来源: https://www.cnblogs.com/ddcom/p/11380733.html

负载均衡(二)

匿名 (未验证) 提交于 2019-12-02 23:55:01
Nginx+keepalive 搭建负载均衡 准备两台服务器 NginX keepalived: yum -y install gcc pcre-devel zlib-devel openssl-devel yum -y install popt-devel wget http://nginx.org/download/nginx-1.2.4.tar.gz wget http://www.keepalived.org/software/keepalived-1.2.7.tar.gz NginX keepalive tar zxvf keepalived-1.2.7.tar.gz cd keepalived-1.2.7 3 NginX NginX , /usr/local/nginx/conf/nginx.conf http http server server location http upstream, server location proxypass http http { } IP url / keepalived keepalived /etc/keepalived/keepalived.conf Master: ! Configuration File for keepalived global_defs { } vrrp_instance VI_1 { }

Ribbon实现客户端负载均衡

匿名 (未验证) 提交于 2019-12-02 23:55:01
客户端负载均衡组件。 搭建一个Eureka集群和一个注册服务 https://www.cnblogs.com/noneplus/p/11374883.html 创建服务提供者msc-provider-5002,msc-provider-5003 创建消费者msc-consumer-80 服务提供者msc-provider-5001,msc-provider-5002,msc-provider-5003: <parent> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-parent</artifactId> <version>2.1.7.RELEASE</version> <relativePath/> <!-- lookup parent from repository --> </parent> <properties> <java.version>1.8</java.version> <spring-cloud.version>Greenwich.SR2</spring-cloud.version> </properties> <dependencies> <dependency> <groupId>org.springframework.cloud</groupId>

负载均衡

匿名 (未验证) 提交于 2019-12-02 23:54:01
负载均衡(Load Balance)是一种集群技术,它将特定的业务(网络服务、网络流量等)分担给多台网络设备(包括服务器、防火墙等)或多条链路,从而提高了业务处理能力,保证了业务的高可靠性。负载均衡建立在现有网络结构之上,它提供了一种廉价有效透明的方法扩展网络设备和服务器的带宽、增加吞吐量、加强网络数据处理能力、提高网络的灵活性和可用性。 负载均衡有两方面的含义:首先,大量的并发访问或数据流量分担到多台节点设备上分别处理,减少用户等待响应的时间;其次,单个重负载的运算分担到多台节点设备上做并行处理,每个节点设备处理结束后,将结果汇总,返回给用户,系统处理能力得到大幅度提高。目前负载均衡技术大多数是用于提高诸如在Web服务器、FTP服务器和其它关键任务服务器上的Internet服务器程序的可用性和可伸缩性。 负载均衡技术优势 高性能:负载均衡技术将业务较均衡地分配到多台设备或多条链路上,提高了整个系统的性能。 可扩展性:负载均衡技术可以方便地增加集群中设备或链路的数量,在不降低业务质量的前提下满足不断增长的业务需求。 高可靠性:单个甚至多个设备或链路发生故障也不会导致业务中断,提高了整个系统的可靠性。 可管理性:大量的管理工作都集中在应用负载均衡技术的设备上,设备群或链路群只需要通常的配置和维护即可。 透明性:对用户而言,集群等同于一个可靠性高、性能好的设备或链路