容灾

毕业设计:文献参考(四)

六月ゝ 毕业季﹏ 提交于 2020-02-17 22:35:55
0x00 基本信息 标题:Nginx高并发负载均衡原理与策略比较研究 来源:工业控制计算机 作者:张炜森,陈涛,李康 时间:2018 0x01 研究背景 Nginx 作为当下的高并发连接的负载均衡服务器因其极强的性能得到广泛的使用。 分析了 Nginx 的工作模型并针对不同的负载均衡策略给出研究,探讨了 Nginx 多进程模型对于提升集群服务器响应能力的重要作用,同时对比了 Nginx 不同的负载均衡策略的性能差距,对实际应用服务器的开发具有重要的意义。 0x02 具体内容 提出了一个以Nginx服务器为核心的后台服务器架构,对如何加速提供服务进行了针对性的优化。 从原理上解释了Nginx为什么性能突出于其他服务器程序以及Nginx对性能优化所做的处理,以及多进程模式的优点: 减少加锁操作,降低加锁粒度。 进程间运行状态独立,互不影响。 单进程编程的开发方式降低了开发的难度 。 详细解释了Nginx服务器负载均衡的策略以及具体实现方式: 轮询 加权轮询 IP Hash算法 一致性Hash算法 响应时间优先分配策略 对不同的算法进行了比较,采用QPS作为衡量标准: 轮询策略在均衡性和容灾性方面表现较好,在一致性方面表现较差,通用性较强,在无需特殊需求的场景下都可以使用。 Fair 策略自适应性较好, 在网络环境多变的情况下表现较好,容灾性强,均衡性一般,一致性较差。 IP

实践高可用

六眼飞鱼酱① 提交于 2020-02-15 22:24:01
  本篇文章是之前一篇《大话高可用》的高可用心法的案例篇。   说实践之前先说概念。   业界可靠性和可用性的衡量标准:   将可用性做一个目标分解即为: MTBF:发生频率要低 MTTR:故障恢复要快   先考虑发生频率低的问题。就是怎样别人死我们不死;自己不作死;不被队友搞死。故障恢复要快,那就需要事先做好应急备案,快速准确的监控报警,故障时快速切换备案。具体实践如下: 架构高可用   交易这边进行在进行重构。将原有的核心交易从职责上划分为交易收单、交易保障和数据中心三个大块。   从高可用上,交易收单要保证实时交易现场的可用。除了交易现场必需的事情,其他什么都不做。除了发号器、加密器、监控报警等自身必需的中间件外,不使用其他与其他端通信的中间件。核心策略是去依赖。主要考虑点在MTBF。   交易保障的定位是交易现场完成后一切让交易数据正确的工作都是交易保障的工作。为了可以高效的及时修补数据、检测交易数据与各个端的一致性就需要适当用到一些中间件和交易收单进行通信。这就有依赖关系了。有依赖就要容灾。如果一个中间件出现问题了,就切换另外一个中间件。用的是同一个中间件,只是在不同的机房,这就是机房互备容灾。如果是不同的中间件,就是旁路容灾。都行不通怎么办?数据库轮询兜底,这属于降级容灾。对交易来说,交易保障为后续结算提供准确的数据,只要定时结算的时候数据是准确的,主要考虑点在MTTR

云解析DNS能为你做什么?

天大地大妈咪最大 提交于 2020-02-10 17:43:43
记录类型 云解析DNS支持A、CNAME、MX、TXT、SRV、AAAA、NS、CAA记录类型。 您可以参阅 添加解析记录 操作文档。 记录类型功能描述 A IPV4记录,支持将域名映射到IPv4地址使用 AAAA IPV6记录,支持将域名映射到IPv6地址使用 CNAME 别名记录,支持将域名指向另外一个域名 MX 电邮交互记录,支持将域名指向邮件服务器地址 TXT 文本记录,是任意可读的文本DNS记录 SRV 服务器资源记录,用来标识某台服务器使用了某个服务,常见于微软系统的目录管理 NS 名称服务器记录,支持将子域名委托给其他DNS服务商解析 CAA CAA资源记录,可以限定域名颁发证书和CA(证书颁发机构)之间的联系 智能解析 智能解析支持根据用户的地理位置来智能返回解析结果,您可以参阅 智能DNS解析 操作文档。 解析线路功能默认必填项,在DNS查询过程中,如未匹配到智能解析线路时,云解析DNS则返回默认线路下的解析结果运营商线路解析线路支持按运营商设置(例如联通、移动),实现用户通过客户指定的运营商智能返回解析结果。运营商省份解析线路支持按省份地区设置(例如联通北京),实现用户通过客户指定的省份地区智能返回解析结果。境外线路解析线路支持设置为境外,实现用户通过客户指定的境外智能返回解析结果。境外大洲解析线路支持设置为境外大洲(例如亚洲、欧洲)

0. 数据库运维做些什么

心已入冬 提交于 2020-02-05 20:44:13
一. 数据库生命周期 结合软件生命周期、项目的开展,数据库的生命周期大致可分为这么几个阶段。 1. 规划 在立项后,对于数据库平台的软硬件选型,以及大致的数据库架构。 1.1 配置多少台服务器,服务器的内存大小/磁盘空间、IOPS/CPU核数/网络带宽等; 1.2 选择的操作系统/数据库产品/第三方工具,及相应版本; 1.3 整体架构,比如是否考虑:HA, Scale out, load balance, 读写分离等策略。 2. 开发 开发的工作,通常是在开发/测试环境上进行的,测试结束后搬到生产环境。 2.1 数据库设计; 2.2 SQL编程及调试; 2.3 开发过程中的SQL优化。 3. 实施 开发的数据库程序到生产环境的部署。到这里,基本是项目上线了。后面就进入了运维阶段。 3.1 前期规划时数据库物理架构的部署; 3.2 开发/测试完成的数据库程序部署。 二. 运维做些什么 从上面的图来看,运维是项目上线后的工作。看看从项目上线开始,运维都做了什么。 1. 部署环境 1.1 数据库安装(如果服务器太多,可以选择静默安装); 1.2 参数配置(操作系统、数据库实例、数据库参数); 1.3 权限分配(登录、数据库用户权限)。 2. 备份/还原 对于数据库来说,有个可用的备份是非常重要的,防止有数据损坏,用户误操作等造成的数据丢失。保证了数据的存在,运维才有意义

阿里云负载均衡SLB配置步骤

寵の児 提交于 2020-01-29 00:20:30
阿里云负载均衡——SLB,是将访问流量根据转发策略分发到后端多台云服务器(ECS实例)的流量分发控制服务。包含两种含义:一是通过流量分发,扩展应用系统的服务能力;二是消除单点故障,提高应用系统的可用性。 应用场景 我们具体来看一看它的使用场景。 第一个使用场景的是用于高访问量的业务。 当你的应用访问量非常大,单台的服务器已经无法承载这个访问量的时候,就可以使用负载均衡,将流量分发到不同的服务器上去。 第二个场景是横向扩张系统。 当你已经使用了负载均衡,在业务有波动时可以在后端非常方便的添加和减少ECS来调整自己应用的服务能力。 第三个应用场景是消除单点故障。 当我们在使用负载均衡时,后端有多台ECS在同时工作的。一旦其中一台ECS上的应用发生了故障,那么负载均衡会通过一个健康检查的机制来及时的发现这个故障,并且能屏蔽对这台ECS的流量转发,然后将用户的请求转发到另一台正常工作的ECS实例上。 更多知识: 阿里云帮助中心-负载均衡 同城容灾 阿里云负载均衡可以实现同地域多可用区之间同地域容灾,当主可用区出现故障是,可以在短时间内切换到另一备用可用区,以恢复服务能力。同时,主可用区恢复访问时,它会自动切换到主可用区。 跨地域容灾 跨地域容灾通过云解析做智能DNS,将域名解析到不同地域的负载均衡实例地址下,以实现全局负载均衡,当某个地域出现不可用时

IT基础架构运维规划

∥☆過路亽.° 提交于 2020-01-22 23:06:29
这是之前规划设计的IT基础架构运维规划方案,总结自己一段时间的运维经验 相关敏感信息已经去除 学无止境啊 XX运维工作架构规划 从2016年10月XX的运维工作到现在已经有两年多了,期间进行了很多调整,部署了很多业务系统,从一开始的混乱无序,到现在算是小有成效了。现在我们需要进一步完善现有运维工作,规划完整的架构,方便日后进行调整,保证能够科学而又高效的完成运维工作,提高客户满意度。 1.整体架构设计 整体架自下而上分为两个部分,基础环境和上层业务应用。 基础环境主要是提供的基础虚拟机化环境和存储支持,同时包括各种网络基础环境。 上层应用由客户业务、运维支撑和第三方业务系统构成,主要是基于虚拟机的应用软件和解决方案。 广电的基础环境主要构建是基于kvm虚拟化解决方案的超融合nutanix环境和基于vmware的vsphere虚拟化解决方案环境组成,两者为不同的异构的虚拟化,中间底层网络全部连通,相互共享网络资源和存储资源,为整体的架构提供一个虚拟化层从而支撑上层其他业务系统。值得说明的是,目前我们无法两种不同的虚拟化环境进行统一管理和调度,虽然他们都可以提供完整的虚拟机生命周期管理。 1.1. nutanix的虚拟化环境 Nutanix的虚拟化环境组网如下所示: 这是一个稳定的组网架构,从2017年3月部署后,基本没有变更过,运行可靠,可用性高,性能强悍

第四讲:详谈波分设备在双活方案中应用

有些话、适合烂在心里 提交于 2020-01-21 05:48:34
容灾通信链路设计是保障用户在合理的通信成本下成功实现容灾系统建设的重要步骤。不同的通信链路有不同的属性,如距离支持、带宽能力等,而不同的容灾技术和容灾应用对通信链路的要求并不相同。 容灾通信链路的选择 对于容灾方案,无论采用哪种容灾通信链路,都需要从信息系统灾备的实际需求出发,确定风险的类型,分析各业务系统不同的容灾要求,明确灾备系统的RTO和RPO的目标。用户还需要根据应用数据特点、可以承受的成本来选择合适的数据传输方式。容灾通信链路的选择需要解答以下问题: 容灾通信链路距离(即生产中心到容灾中心的距离),需要根据抵御的风险类型确定,如区域性灾难需要选择异地灾备,站点灾难可选择同城灾备,系统或设备故障可选择同机房灾备。 容灾通信链路带宽,需要根据业务应用分析,明确RTO和RPO需求,从而确定需要哪种带宽链路和需要多少条。 容灾通信链路选择后,还需要根据应用系统的数据变化量、数据传输的可靠性,进行验证确认设计的链路是否满足预期的目标。目前数据远程传输的主要方式、优缺点、适合的传输距离如表所示。 容灾链路连接方式 当前业界容灾方案的通信链路基本采用“裸光 来源: CSDN 作者: Hardy晗狄 链接: https://blog.csdn.net/swingwang/article/details/103755710

杉岩数据异地容灾备份解决方案(中移物联网案例)

若如初见. 提交于 2020-01-17 16:13:46
中国移动物联网有限公司(简称中移物联网)是中国移动全资子公司,聚焦物联网产业,专业化运营物联网专用网络,设计生产物联网专用模组和芯片,打造车联网、智能家居、智能穿戴等特色产品,开发运营物联网连接管理平台 OneLink和物联网开放平台OneNET。中移物联网拥有11万企业客户,物联卡用户超4亿,是全球四大物联网连接管理平台之一。 公司按照中国移动整体战略布局,围绕“物联网业务服务的支撑者、专用模组和芯片的提供者、物联网专用产品的推动者”的战略定位,专业化运营物联网专用网络,设计生产物联网专用模组和芯片, 打造车联网、智能家居、智能穿戴等特色产品,开发运营物联网连接管理平台OneLink和物联网开放平台OneNET,推广物联网解决方案,形成了五大方向业务布局和物联网“云-管-端”全方位的体系架构。 为了保障海量数据的安全,实现现网业务数据异地容灾备份的目标,突破传统存储在各个方面对应用系统的限制,中移物联网要求存储产品必须是完全由“软件定义”的存储管理平台,且能部署在通用x86服务器上,适用于广泛的传统应用、数据库、虚拟化平台及私有云资源池等架构,满足弹性易扩展、高可靠性、高安全性等要求。 部署杉岩数据解决方案 中移物联网部署杉岩统一存储平台 (SandStone USP),构建分布式存储集群,用于现网业务数据的异地容灾备份,计划通过以下四个阶段完成: 第一阶段

2019-2020年信息化环境运维及安全建议

家住魔仙堡 提交于 2020-01-15 13:04:15
2019-2020年信息化环境运维及安全建议 1.系统及各种设备管理口令建议10位以上大小写字母组合加数字加特殊符号的复杂密码策略,推荐14位。 2.网络出口建议用专业的防火墙设备替代企业级路由器,以确保出口网络安全,防范勒索软件、***侵入等网络危害行为。网络设备建议采用千兆接口。推荐企业网络采用千兆布线方案。 3.服务器采购建议考虑后期的可扩展生态,满足虚拟化和自动化运维控制需求。推荐采用固态作为系统盘,或采用全固态硬盘阵列。避免采用普通桌面级硬盘作为核心业务的存储介质,以免影响性能。 4.核心交换机至少基于三层网管型千兆交换机,推荐采用万兆交换机,建议逐步推进采用核心万兆通讯。部分新服务器及终端已经不再兼容百兆设备,注意采购新设备时考虑现有网络设备的兼容性。建议根据公司的当前使用情况,结合未来3-5年的发展需求做好网络构架设计,以免后期网络扩展运维出现严重瓶颈。 5.企业无线(包括工业无线)建议采用600M或以上传输速率,同时无线AP与监控网络和其他业务建议划分子网网段进行隔离.无线AP建议采用配套的POE交换机和主控设备,以便于维护管理. 6.核心业务系统网络前端建议部署IPS防***安全网络设备,以便于核心业务的最佳安全保障,防御风险。 7.自营电商网站系统和BS架构的系统建议部署防篡改系统,以保证业务登陆系统的访问安全,防止页面被挂载***等恶意插件和防范******

聊聊高可用架构——异地多活

早过忘川 提交于 2020-01-15 05:20:57
  今天咱们来聊聊高可用系统架构的热点——异地多活。   现在比较吊的多活方式是异地三节点,有多少公司真正实现了就不得而知了。为什么要做异地多活,主要是为了提升系统的容灾能力,比如单机房的网络故障、地震火灾等不可抗因素,都有可能造成整个机房瘫痪。   在上一家公司负责支付系统开发的时候,由于我们在天津机房的硬件设施太过老旧,经常时不时地网络故障,进而逼我们搭建了一个异地多活的架构。我们先来看看我们当时的做法。整个部署结构如下图: 通过域名做负载均衡,将请求路由到最近的可用服务的机房。 服务全部机房内自治,不进行跨机房访问 DB(mysql)仅有一个,机房2跨机房访问机房1的DB进行读写 整个架构看起来是可行的,并且当时也是有在生产环境使用。但是不难看出,机房2的服务,在响应时间上肯定要比机房1更慢。因为跨机房访问数据库带来了一定的网络延时,在最正常的情况下,通过当时购买的专线,可以控制在数十ms以内。 当机房1故障时,通过dns切换(据说可以智能切换,不过我们当时并没有实施)关闭机房1的请求,然后将机房2的数据库从slave升级为master,就可以完成整个容灾过程。看起来并不是全自动的,但至少比服务长时间瘫痪等待机房修复要好。而且,dns切换以及db切换,都可以通过自动的方式来实现。 上面的方案实现简单,对于一般的业务也够用了。但是,存在以下几个问题。而这几个问题