集群服务器

Kubernetes

自古美人都是妖i 提交于 2019-12-20 20:56:54
概念 概念部分帮助你学习关于Kubernetes的系统的部分和Kubernetes用来表示你的 集群的抽象,并且帮助你得到kubernetes是如何工作的更深层的理解。 概述 为了与Kubernetes一起工作,你能使用Kubernetes的api对象来描述你的集群的 目标状态:你要运行的应用或者是其它的工作程序是什么,它们使用什么容器的镜像, 复本有多少个,为了保证可用,你需要什么样的网络和磁盘资源等等。通过使用 Kubernetes的api来创建对象,你能设置你的目标状态,一般是基于命令行的接口 kubectl. 你也能使用Kubernetes的api直接与集群交互,设置或者是改变你的目标 状态。 一旦你设置了你的目标状态,Kubernetes的控制面板开始工作让集群的现在的状态 达到你的目标状态。为了实现这个任务,Kubernetes自动化地执行了一系列的任务 例如开始或者是重启容器,对给定的程序的复本的数量进行缩放等等。Kubernetes的 控制面板由在你的集群上运行的一系列的进程组成: Kubernetes的主结点是一个运行在你的集群中的一个单一的结点上的三个进程的集合。 它们是API服务器,控制器兼管理器,调度器。 在你的集群的每一个单独的非主结点上运行着两个进程: kube组件是用来与Kubernetes主结点通信的。 kube代理,它是

rocketMQ集群双主双从同步模式(2m-2s-sync)搭建

自古美人都是妖i 提交于 2019-12-20 19:42:04
1.去apache官网( http://rocketmq.apache.org/release_notes/release-notes-4.6.0/)下载最新的rocketmq发行版,我用的是4.6版本( rocketmq-all-4.6.0-bin-release.zip) 如下图: 2.将下载后的二进制包(zip)上传到服务器目录之中,然后进行解压 解压命令为:unzip rocketmq-all-4.6.0-bin-release.zip 如果报错bash: unzip: command not found 则说明没有unzip命令 可先安装,命令为:yum -y install unzip 我的包目录为/home/zhipeng/rocketMQ 3.我们想要规划的环境如下: 序号 IP 角色 架构模式 1 192.168.108.128 nameserver,brokerserver Master1,Slave2 2 192.168.108.129 nameserver,brokerserver Master2,Slave1 4.Host添加信息(两台机器都要执行) 编辑hosts文件,添加域名信息 命令为:vi /etc/hosts 保存之后,重启网卡服,命令:systemctl restart network 如下图 5.防火墙配置(两台机器都要执行) 可以开放端口

使用Haproxy搭建web集群

血红的双手。 提交于 2019-12-20 18:59:41
常见的web集群调度器 目前常见的web集群调度器分为软件和硬件,软件通常使用开源的LVS,Haproxy,Nginx,硬件一般使用比较多的是F5,也有很多人使用国内的一些产品,如梭子鱼,绿盟等 Haproxy应用分析 LVS在企业应用中抗负载能力很强,但存在不足 LVS不支持正则处理,不能实现动静分离 对于大型网站,LVS的实施配置复杂,维护成本相对较高 Haproxy是一款可提供高可用性,负载均衡,及基于TCP和HTTP应用的代理的软件 特别适用于负载特别大的web站点 运行在当前的硬件上可支持数以万计的并发连接连接请求 Haproxy调度算法原理 RR:最简单常用的,轮询调度 LC:最小连接数算法,根据后端的节点连接数大小动态分配前端请求 SH:来源访问调度算法,用于有session会话记录在服务器端,可以基于来源ip,cookie做群集调度 实验环境 Haporxy服务器 192.168.13.175 web1服务器 192.168.13.151 web2服务器 192.168.13.176 客户端测试机 win7 1,在web1,web2服务器上安装Nginx [root@web1 ~]# yum install -y \ ##安装环境需要组件包 > pcre-devel \ ##开发包 > zlib-devel \ ##压缩包 > gcc \ > gcc-c++ \ >

搭建 RabbitMQ Server 高可用集群

旧城冷巷雨未停 提交于 2019-12-20 18:15:03
原文: 搭建 RabbitMQ Server 高可用集群 阅读目录: 准备工作 搭建 RabbitMQ Server 单机版 RabbitMQ Server 高可用集群相关概念 搭建 RabbitMQ Server 高可用集群 搭建 HAProxy 负载均衡 因为公司测试服务器暂不能用,只能在自己电脑上重新搭建一下 RabbitMQ Server 高可用集群,正好把这个过程记录下来,以便日后查看。 公司测试服务器上的 RabbitMQ 集群,我搭建的是三台服务器,因为自己电脑空间有限,这边只能搭建两台服务器用作高可用集群,用的是 Vagrant 虚拟机管理工具。 环境介绍: RabbitMQ 节点 IP 地址 工作模式 node1 192.168.1.50 DISK CentOS 7.0 - 64位 node2 192.168.1.51 DISK CentOS 7.0 - 64位 整体架构: 1. 准备工作 首先,在 node1 服务器上,修改 vi /etc/hostname : node1 在 node2 服务器上,修改 vi /etc/hostname : node2 然后在 node1 服务器上,修改 vi /etc/hosts : node1 192.168.1.50 node2 192.168.1.51 127.0.0.1 node1 ::1 node1 在 node2

MySQL Fabric集群功能整理---择录官网

倾然丶 夕夏残阳落幕 提交于 2019-12-20 17:03:52
【推荐】2019 Java 开发者跳槽指南.pdf(吐血整理) >>> MySQL Fabric特点: 1:高可用性 (HA) 。 2:使用数据分片的横向扩展。( 自动数据分片 ) 这两个特性既可以单独使用,也可以结合使用。 原理: mysqlfabric 是处理任何管理请求的进程。使用 HA 特性时,还可以让此进程负责监视主服务器并在发生故障时,开始故障转移,将从服务器升级成主服务器。MySQL Fabric-aware 连接器把从 MySQL Fabric 获取的路由信息存储到缓存中,然后凭借该信息将事务或查询发送给正确的 MySQL 服务器。 高可用性: HA 组由两个或更多个 MySQL 服务器组成;任何时刻,其中都有一台服务器作为主服务器(MySQL 复制功能的主服务器),其他服务器则作为从服务器(MySQL 复制功能的从服务器)。HA 组的作用就是确保该组中保存的数据始终可访问。MySQL 的复制功能可通过复制来确保数据安全, MySQL Fabric 的高可用性解决方案在此基础上提供了两个必不可少的额外要素: 1:故障检测和升级 — MySQL Fabric 监视 HA 组中的主服务器,在主服务器发生故障时选择一个从服务器并将其升级为主服务器 2:数据库请求路由 — 将写入请求路由到主服务器以及将读取请求在各个从服务器之间进行负载均衡的操作对应用是透明的

Linux集群之间配置NTP时间同步ntp

青春壹個敷衍的年華 提交于 2019-12-20 10:34:55
NTP时间同步 注意事项 要注意的是,ntpd 有一个自我保护设置: 如果本机与上源时间相差太大, ntpd 不运行. 所以新设置的时间服务器一定要先 ntpdate 从上源取得时间初值, 然后启动 ntpd服务。ntpd服务 运行后, 先是每64秒与上源服务器同步一次, 根据每次同步时测得的误差值经复杂计算逐步调整自己的时间, 随着误差减小, 逐步增加同步的间隔.每次跳动, 都会重复这个调整的过程. NTP服务运行原理 NTP(Network Time Protocol,网络时间协议)是用来使计算机时间同步化的一种协议。它可以使计算机对其服务器或时钟源做同步化,它可以提供高精准度的时间校正(LAN上与标准间差小于1毫秒,WAN上几十毫秒),且可介由加密确认的方式来防止恶毒的协议攻击。 环境说明 NTP服务端:Rich63.cn IP:192.168.1.63 NTP客户端:Rich64.cn IP:192.168.1.64 操作系统版本:CentOS Linux release 7.5.1804 (Core) 服务端安装配置NTP yum install ntp ntpdate -y # 修改配置文件,使该NTP服务器在不联网的情况下,使用本服务器的时间作为同步时间 vim /etc/ntp.conf # 编辑配置文件,注释掉以下4行 #server 0.centos.pool

SolrCloud(集群,基于zookeeper集群)的搭建与使用

好久不见. 提交于 2019-12-20 09:36:23
SolrCloud简介 SolrCloud(solr 云)是Solr提供的分布式搜索方案,当你 需要大规模,容错,分布式索引和检索能力 时使用 SolrCloud。当一个系统的索引数据量少的时候是不需要使用SolrCloud的,当索引量很大,搜索请求并发很高,这时需要使用SolrCloud来满足这些需求。 SolrCloud是基于Solr和Zookeeper的分布式搜索方案,它的主要思想是使用Zookeeper作为集群的配置信息中心。 它有几个特色功能: 1)集中式的配置信息 2)自动容错 3)近实时搜索 4)查询时自动负载均衡 Solr集群的系统架构 1.1. 物理结构 三个 Solr 实例( 每个实例包括两个 Core ),组成一个 SolrCloud 。 1.2. 逻辑结构 索引集合包括两个 Shard ( shard1 和 shard2 ), shard1 和 shard2 分别由三个 Core 组成,其中一个 Leader 两个 Replication , Leader 是由 zookeeper 选举产生, zookeeper 控制每个 shard 上三个 Core 的索引数据一致,解决高可用问题。 用户发起索引请求分别从 shard1 和 shard2 上获取,解决高并发问题。 1.2.1. collection Collection 在 SolrCloud

hadoop学习(二)hadoop集群的启动

扶醉桌前 提交于 2019-12-20 07:27:23
一、完全分布式集群环境的搭建   1、配置hosts文件:将三台集群服务器的主机名与IP的对应关系互相配置到对方的hosts文件中,以便对方服务器能通过主机名寻找IP,hosts文件在/etc目录下。   2、建立hadoop运行账号,这个就不说了。   3、配置ssh免密码连入,配置这个地方可能会出现问题,具体细节看上一篇博客。   4、下载并解压hadoop安装包,需要说明的是最好是先chmod更改一下权限,使用tar xzvf 包名 来解压。   5、在namenode节点上配置hadoop:     (1)修改~/hadoop-0.20.2/conf目录下的core-size.xml文件内容,用来配置namenode节点IP和断口,如下:       <configuration>         <property>           <name>fs.default.name</name>           <value>hdfs://namenode服务器ip地址:9000</value>         </property>       </configuration>     (2)修改~/hadoop-0.20.2/conf目录下的hdfs-site.xml文件内如,用来配置备份数据的份数,如下:       <configuration>        

Rabbit安装(单机及集群,阿里云)

情到浓时终转凉″ 提交于 2019-12-20 06:51:31
Rabbit安装(单机及集群,阿里云) 前言 虽然我并不是部署人员,但是自己私人测试环境的各类东东还是得自己安装的。 尤其在规模不大的公司,基本安装部署工作都是后端的份内之事。 那么最令人痛苦的,莫过于自己就是安装大佬教程走,但是就是过不去。尤其是初学者,解决问题的能力,还不足,往往就直接卡死了。 其实还有另外一个问题,那就是很多的教程,包括许多视频的教学,大多采用不真实的环境。要么是多台虚拟机实现集群,要么是一台线上服务器走天下。当然作者们也有着诸多考虑,有的是为了学员可以零成本的感受安装,另一方面学员大多都是学习知识,而不是为了实际应用(真的懂得,又不大需要这个东东)。最重要的是,学习阶段,大部分安装都是单机的,可以满足需求了。 但是,我发现在很多的扣扣群,微信群依然存在着那么一批正式环境安装遇到各类问题,苦求无门的朋友。在我回复之后,部分人提议我可以将这部分经验发出来,帮助更多的人。 所以有了这个系列,我会通过真实的阿里服务器集群(三台),搭建各个中间件的集群等。 最后,由于打马赛克太麻烦了。并且我之后可能会开放安装视频,所以有的IP什么的,我并不方便打马赛克。但是希望你们不要做坏事儿哈。 Rabbit安装概述 简介 RabbitMQ是一款消息中间件,其安装分为: 单机安装(只有一台服务器,上面只有一个RabbitMQ的Broker实例) 多主集群转发数据

大数据面试题

房东的猫 提交于 2019-12-20 03:38:01
第一部分选择题 1. 下面哪个程序负责 HDFS 数据存储。 答案C DataNode a)NameNode b)Jobtracker c)DataNode d)secondaryNameNode e)tasktracker NameNode:负责调度,比如你需要存一个640m的文件 如果按照64m分块 那么namenode就会把这10个块(这里不考虑副本)分配到集群中的datanode上 并记录对于关系 。当你要下载这个文件的时候namenode就知道在哪些节点上给你取这些数据了。。。它主要维护两个map 一个是文件到块的对应关系 一个是块到节点的对应关系。(文件分成哪些块,这些块分别在哪些节点) 2. HDfS 中的 block 默认保存几份? 答案A默认3分 a)3 份 b)2 份 c)1 份 d)不确定 3. 下列哪个程序通常与 NameNode 在一个节点启动? 答案D a)SecondaryNameNode b)DataNode c)TaskTracker d)Jobtracker 此题分析: hadoop的集群是基于master/slave模式,namenode和jobtracker属于master,datanode和tasktracker属于slave,master只有一个,而slave有多个SecondaryNameNode内存需求和NameNode在一个数量级上