high-availability

[Elasticsearch]4.可伸缩性解密:集群、节点和分片

烂漫一生 提交于 2020-08-17 09:45:43
可伸缩性解密:集群、节点和分片 更新连载中...请关注 Scalability and resilience: clusters,nodes, and shard Elasticsearch支持根据需要进行扩缩容.这得益于Elasticsearch是原生支持分布式的.可以通过往机器中添加服务器(节点)的方式扩大集群容量从而存储更多数据.Elasticsearch会自动的均一些数据和计算任务给新加入的数据.甚至不需要应用程序参与,Elasticsearch完全知道该怎么把数据均衡到多个节点并且提供良好的可伸缩性和高可用性.集群的节点越多这种操作越顺滑越无感. 就是这么丝滑,堪比丝袜! Elasticsearch is built to be always available and to scale with your needs. It does this by being distributed by nature. You can add servers (nodes) to a cluster to increase capacity and Elasticsearch automatically distributes your data and query load across all of the available nodes. No need to

oracle 11g r2 rac 安装整理 附详细步骤(亲测VMware和exsi都可以完美安装物理机自然没有问题)

混江龙づ霸主 提交于 2020-08-17 09:24:09
由于前面安装了,由于时间关系没有来得及整理,今天闲下来,整理了安装步骤,还是活的一些收获的,下面附上步骤: 1.安装操作系统最小化安装即可 2.关闭防火墙 3.替换yum 4.添加共享磁盘 5.创建用户和用户组 6.添加用户环境变量 7.调整内核参数 8.安装依赖包 9.配置hosts 10.配置ssh 无密码访问 11.调整swap 12.配置asm共享磁盘 13.grid安装预检 14.grid安装 15.asm磁盘组创建 16.database安装 17.数据库实例创建 18.rac 状态查看和维护 esxi主机创建共享磁盘: http://www.linuxfly.org/post/673/ VMware12上面安装11g rac: 在vmware安装目录 创建磁盘: vmware-vdiskmanager.exe -c -s 1000Mb -a lsilogic -t 2 E:\VMwarecp\VMWARE\racsharedisk\ocr.vmdk vmware-vdiskmanager.exe -c -s 1000Mb -a lsilogic -t 2 E:\VMwarecp\VMWARE\racsharedisk\ocr2.vmdk vmware-vdiskmanager.exe -c -s 1000Mb -a lsilogic -t 2 E:\VMwarecp

Heartbeat+DRBD+MySQL高可用方案

拜拜、爱过 提交于 2020-08-17 07:41:17
1.方案简介 本方案采用Heartbeat双机热备软件来保证数据库的高稳定性和连续性,数据的一致性由DRBD这个工具来保证。默认情况下只有一台mysql在工作,当主mysql服务器出现问题后,系统将自动切换到备机上继续提供服务,当主数据库修复完毕,又将服务切回继续由主mysql提供服务。 2.方案优缺点 优点:安全性高、稳定性高、可用性高,出现故障自动切换。 缺点:只有一台服务器提供服务,成本相对较高,不方便扩展,可能会发生脑裂。 3.软件介绍 Heartbeat介绍 官方站点: http://linux-ha.org/wiki/Main_Page heartbeat 可以资源(VIP地址及程序服务)从一台有故障的服务器快速的转移到另一台正常的服务器提供服务 ,heartbeat和keepalived相似, heartbeat 可以实现failover功能,但不能实现对后端的健康检查 DRBD介绍 官方站点: http://www.drbd.org/ DRBD( DistributedReplicatedBlockDevice ) 是一个基于块设备级别在远程服务器直接同步和镜像数据的软件, 用软件实现的、无共享的、 服务器之间镜像块设备内容的存储复制解决方案。 它可以实现在网络中 两台服务器之间基于块设备级别的实时镜像或同步复制(两台服务器都写入成功)/异步复制(本地服务器写入成功

集群与分布式,你们知道有什么区别吗?

廉价感情. 提交于 2020-08-16 11:27:55
用一个例子介绍集群与分布式: 小餐馆原来只有一个厨师,切菜洗菜备料炒菜他都全干。后来餐馆的客人多了,厨房里一个厨师忙不过来,又请了个厨师,两个厨师都能炒一样的菜,这两个厨师的关 系是集群。为了让厨师专心炒菜,把菜做到极致,又请了个配菜师负责切菜,备菜,备料,厨师和配菜师的关系是分布式,一个配菜师也忙不过来了,又请了个配菜 师,两个配菜师关系是集群。 一、分布式: 分布式是指将多台服务器集中在一起,每台服务器都实现总体中的不同业务,做不同的事情。并且每台服务器都缺一不可,如果某台服务器故障,则网站部分功能缺失,或导致整体无法运行。存在的主要作用是大幅度的提高效率,缓解服务器的访问和存储压力。 分布式的优点是细化了应用程序的功能模块,同时也减轻了一个完整的应用程序部署在一台服务器上的负担,用了分布式拆分后,就相当于把一个应用程序的多个功能分配到多台服务器上去处理了。 注意:该图中最大特点是:每个Web服务器(Tomcat)程序都负责一个网站中不同的功能,缺一不可。如果某台服务器故障,则对应的网站功能缺失,也可以导致其依赖功能甚至全部功能都不能够使用。 二、集群: 集群是是指将多台服务器集中在一起,每台服务器都实现相同的业务,做相同的事情。但是每台服务器并不是缺一不可,存在的作用主要是缓解并发压力和单点故障转移问题。可以利用一些廉价的符合工业标准的硬件构造高性能的系统。实现:高扩展

Kubernetes实战

喜欢而已 提交于 2020-08-13 04:03:08
1.5 提高可用性-发布多节点的Node/Express网络应用程序 Kubernetes实战 - 从零开始搭建微服务 前言 在上一篇文章中,已经学习了如何简单地开发一个单层网络应用。 【Kubernetes实战 - 从零开始搭建微服务 1 - 使用kind构建一个单层架构Node/Express网络应用程序】 ,本文将在上一篇基础上,添加额外节点,目的在于提高可用性(high availability)。 关于可用性 high availability 在软件产品环境下,如何提高服务稳定性,进而避免用户流失,一直是架构师工作的核心。高可用性有一些基本的设计原则, 找到单一故障点/单点故障,就是在整个架构中,找到其中可用性最低的服务/点,增加冗余,以避免单点故障 可靠交叉(reliable crossover),没找到很好的中文翻译,即,当多服务交叉在一起,互相依赖度极高,它们可能成为单点故障 及时发现故障 计算可用性 high availability A(可用性),MTBF(平均故障间隔),MDT(平均修复时间) 举个例子,AWS S3 存储服务HA保证值就在99.99%,耐用性durability是11个9 - 99.999999999%。 kind 创建一个多节点集群 k8s设计本身就是在于降低容器devops维护复杂度,提高可用性。 在上一篇文章的介绍里

虚拟IP原理及使用

吃可爱长大的小学妹 提交于 2020-08-08 06:41:31
一、前言 高可用性 HA(High Availability)指的是通过尽量缩短因日常维护操作(计划)和突发的系统崩溃(非计划)所导致的停机时间,以提高系统和应用的可用性。HA 系统是目前企业防止核心计算机系统因故障停机的最有效手段。 实现 HA 的方式,一般采用两台机器同时完成一项功能,比如数据库服务器,平常只有一台机器对外提供服务,另一台机器作为热备,当这台机器出现故障时,自动动态切换到另一台热备的机器。 二、虚拟IP技术原理 1. 怎么实现故障检测? 心跳检测技术。采用定时发送一个数据包,如果机器一定时间没响应,就认为是发生故障,自动切换到热备的机器上去。 2. 怎么实现主备自动切换? 虚拟IP技术。虚拟IP,就是一个未分配给真实主机的IP,也就是说对外提供数据库服务器的主机除了有一个真实IP外还有一个虚IP,使用这两个IP中的任意一个都可以连接到这台主机,所有项目中数据库链接一项配置的都是这个虚IP,当服务器发生故障无法对外提供服务时,动态将这个虚IP切换到备用主机。 其实现原理主要是靠 TCP/IP 的 ARP 协议。因为IP地址只是一个逻辑地址,在以太网中 MAC 地址才是真正用来进行数据传输的物理地址,每台主机中都有一个 ARP 高速缓存,存储同一个网络内的 IP 地址与 MAC 地址的对应关系,以太网中的主机发送数据时会先从这个缓存中查询目标 IP 对应的 MAC

Kubernetes实战

牧云@^-^@ 提交于 2020-08-07 21:15:53
1.5 提高可用性-发布多节点的Node/Express网络应用程序 Kubernetes实战 - 从零开始搭建微服务 前言 在上一篇文章中,已经学习了如何简单地开发一个单层网络应用。 【Kubernetes实战 - 从零开始搭建微服务 1 - 使用kind构建一个单层架构Node/Express网络应用程序】 ,本文将在上一篇基础上,添加额外节点,目的在于提高可用性(high availability)。 关于可用性 high availability 在软件产品环境下,如何提高服务稳定性,进而避免用户流失,一直是架构师工作的核心。高可用性有一些基本的设计原则, 找到单一故障点/单点故障,就是在整个架构中,找到其中可用性最低的服务/点,增加冗余,以避免单点故障 可靠交叉(reliable crossover),没找到很好的中文翻译,即,当多服务交叉在一起,互相依赖度极高,它们可能成为单点故障 及时发现故障 计算可用性 high availability A(可用性),MTBF(平均故障间隔),MDT(平均修复时间) 举个例子,AWS S3 存储服务HA保证值就在99.99%,耐用性durability是11个9 - 99.999999999%。 kind 创建一个多节点集群 k8s设计本身就是在于降低容器devops维护复杂度,提高可用性。 在上一篇文章的介绍里

WeBank/Exchangis

独自空忆成欢 提交于 2020-08-06 19:35:59
English | 中文 Introduction Exchangis is a lightweight,highly extensible data exchange platform that supports data transmission between structured and unstructured heterogeneous data sources. On the application layer, it has business features such as data permission management and control, high availability of node services and multi-tenant resource isolation. On the data layer, it also has architectural characteristics such as diversified transmission architecture, module plug-in and low coupling of components. Exchnagis's transmission and exchange capabilities depend on its underlying

ASM单实例由Oracle Restart引发的系列故障分析(Final Version)

强颜欢笑 提交于 2020-07-29 08:11:06
ASM单实例由Oracle Restart引发的系列故障分析(Final Version) 置顶 aaron8219 2013-08-26 03:35:50 5816 收藏 分类专栏: Oracle ASM 版权 今天重新打开上次安装完的一个ASM单实例环境,突然报错 SQL> startup ORA-01078: failure in processing system parameters ORA-01565: error in identifying file '+DATA/asmsingle/spfileasmsingle.ora' ORA-17503: ksfdopn:2 Failed to open file +DATA/asmsingle/spfileasmsingle.ora ORA-29701: unable to connect to Cluster Synchronization Service 以为是监听问题造成的无法读取asm磁盘组,于是运行netca删除监听和服务名,准备重新创建。 当我删除监听后,准备再重新创建一个时,报了一个错误,如下图: 需要重启Oracle Restart后再配置netca,否则不能注册到Oracle Restart google了一下,Oracle Restart是11gR2用来管理单实例组件的一个组件,在装完Grid

Pgpool-II: Delegated IP is not available when disconnected Primary or Standby Node Failed

妖精的绣舞 提交于 2020-05-17 07:06:22
问题 I'm trying to setup postgres cluster of two nodes (primary and standby). In order to activate automatic failover, I'm using pgpool-II. I followed the following article: https://www.pgpool.net/docs/41/en/html/example-cluster.html and the only thing difference I did is installing postgresql version 12 instead of version 11. Knowing that I'm trying it useing two centos7 images on Proxmox. I faced the following issues: When I run systemctl status pgpool.service on both nodes, it returned success.