zookeeper集群

Hbase的体系知识及zookeeper搭建hbase集群

只愿长相守 提交于 2019-11-30 12:57:00
集群下的hbase安装见:https://blog.csdn.net/qq_25948717/article/details/80718580 vim hbase-env.sh 做如下修改: export HBASE_MANAGES_ZK=false export JAVA_HOME=/usr/local/jdk1.8.0_172 -------------------------------------------------------------------------------------------------- vim hbase-site.xml 做如下修改:注意这里因为是采用的zookeeper分布式hbase集群,无比采用hdfs文件系统,其他的不行 ------------------------------------------------------------------------------------------------------------ vim regionservers编辑hbase节点, 集群中安装zookeeperper见:https://blog.csdn.net/qq_25948717/article/details/80958969 输入: node80 node81 node82 将修改后的文件复制到其他节点

HBase之——单节点安装

梦想与她 提交于 2019-11-30 12:56:12
转载请注明出处:http://blog.csdn.net/l1028386804/article/details/78309501 这边博文就带着大家一起学习如何安装HBase,首先,我们来学习如何在单节点上安装HBase,后续会带着大家一起学习如何搭建HBase集群。 一、配置服务器主机名和IP映射 1、配置主机名 vim /etc/sysconfig/network NETWORKING=yes HOSTNAME=liuyazhuang121 NTPSERVERARGS=iburst 2、配置主机名映射 vim /etc/hosts 127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4 ::1 localhost localhost.localdomain localhost6 localhost6.localdomain6 192.168.209.121 liuyazhuang121 二、安装Hadoop 1、伪分布式安装 请参考博文:《 Hadoop之——Hadoop2.4.1伪分布搭建 》 2、 集群安装 请参考博文《 Hadoop之——CentOS + hadoop2.5.2分布式环境配置 》 3、 高可用集群安装 请参考博文《 Hadoop之——Hadoop2.5.2

[HBase] 从零开始部署HBase集群

馋奶兔 提交于 2019-11-30 12:54:58
Hbase集群配置信息如下: Hadoop:hadoop-0.20.2,1 个Master节点(兼做Slave节点)3个Slave节点 Zookeeper:zookeeper-3.3.2 3个Zookeeper节点 Hbase:hbase-0.90.3 一个HMasterServer节点(兼做HRegionServer),3个HRegionServer节点 OS : ubuntu11.04 机器环境(3个VM节点): 192.168.128.131 master 192.168.128.132 slave1 192.168.128.133 slave2 并配置ssh无密码通信 一、关于虚拟机注意事项 在机器上创建第一个虚拟机后,默认的hostname 为 ubuntu,这时候拷贝两个备份,三台虚拟机的主机名均为ubuntu。 1.如果不更改hostname的话,搭建hadoop集群后执行Reduce任务时会抛出异常: mapred.JobClient: Task Id :attempt_201111222034_0001_m_000002_0, Status : FAILED Too many fetch-failures 11/11/22 20:56:19 WARN mapred.JobClient: Error reading

安装部署(七) HBase集群安装部署与测试

廉价感情. 提交于 2019-11-30 12:54:41
HBase集群安装部署与测试 Hadoop 2.7.2 Spark 2.0.0 Kafka 0.10.0.0 HBase 1.2.2 Zookeeper 3.4.8 参考: http://www.tuicool.com/articles/VV7bam http://blog.csdn.net/yinedent/article/details/48275407 1 下载: http://mirrors.hust.edu.cn/apache/hbase/stable/ http://mirrors.hust.edu.cn/apache/hbase/stable/hbase-1.2.2-bin.tar.gz 2 解压: root@py-server:/server# tar xvzf hbase-1.2.2-bin.tar.gz root@py-server:/server# mv hbase-1.2.2/ hbase 3 环境变量: vi ~/.bashrc export HBASE_HOME=/server/hbase export PATH=$HBASE_HOME/bin source ~/.bashrc 4 配置: 依赖zookeeper环境,zookeeper集群参考spark安装部署里边的相应内容。主备Master。 5台机配置如下: 4.1 配置hbase-site.xml

使用zookeeper管理多个hbase集群

大憨熊 提交于 2019-11-30 12:54:23
zookeeper是hbase集群的"协调器"。由于zookeeper的轻量级特性,因此我们可以将多个hbase集群共用一个zookeeper集群,以节约大量的服务器。多个hbase集群共用zookeeper集群的方法是使用同一组ip,修改不同hbase集群的"zookeeper.znode.parent"属性,让它们使用不同的根目录。比如cluster1使用/hbase-c1,cluster2使用/hbase-c2,等等。 使用以上方法有一个现实的问题:如何避免各集群的相互干扰?因为client的配置权是在用户手上,并不能保证用户永远是配置正确的,那么会产生某个用户访问了不该他访问的hbase集群。此时数据安全性成了很大的问题,甚至可能出现误删除数据。我们需要在zookeeper层屏弊掉该问题。 zookeeper3.x版本起自带了简单的ACL功能(注意3.3.x版本起不再支持按hostname来分配权限)。见:http://zookeeper.apache.org/doc/r3.3.2/zookeeperProgrammers.html#sc_ZooKeeperAccessControl。进行权限配置主要使用digest和ip两种方法。其中digest是用户密码方式,对用户来说使用上并不透明。ip配置最简单,对用户也是透明的,用户并不知道的情况下就能限制它的访问权限。

HBASE集群搭建过程

无人久伴 提交于 2019-11-30 12:51:18
安装hbase的条件: Hadoop zookeeper 开始安装: 上传、解压: 删除压缩包: 删除hbase下的docs文件 因为docs’文件中,都是html无用的文件,会严重影响传输效率 —-如果不是apache下的产品,建议不删除 配置环境变量: 打开官网:开始配置hbase的配置文件: 说明: hbase.rootdir:hbase的数据,放到hdfs的哪个位置上存储 hbase.cluster.distributed:集群是否开启,默认是false,我们需要修改成true hbase.zookeeper.quorum:关联zookeeper在哪里 多个主句之间用,隔开 由安装文档可知,我们需要配置conf 下的hbase-site.xml文件: 继续读官方安装文档: —关联jdk: 发送安装文件到其他服务器: 发环境变量: 三台主机,同时保存环境变量 启动hdfs: 启动时有数据同步过程,会进入安全模式 耐心等待数据同步完成,三个节点启动成功 50070端口查看 分别jps查看 确认dfs启动完成,再启动zookeeper 启动zookeeper以后,一定要查看状态 zkServer.sh start 启动 zkServer.sh status 查看状态 **所有服务器启动zookeeper成功,所有主机选择了响应的leader和follower

zookeeper和hbase集群搭建

随声附和 提交于 2019-11-30 12:33:00
zookeeper与hbase分布式搭建 zookeeper集群 1.zookeeper,故名思意,就是动物园管理员的意思,Hadoop生态里面的东西基本上都是一些小动物的昵称,所以,就这么来了 这里接前篇的Hadoop分布式搭建,所有平台都搭建在/root/app目录下 (千万别学我用根用户弄,我是为了懒得敲sudo) 我们将下载的zookeeper安装包上传至虚拟机中,然后解压 tar -zxvf zookeeper-3.4.10.tar.gz 解压好了之后,我们建立两个文件夹,一个是zkdata,一个是zkdatalog mkdir zkdata # 数据 mkdir zkdatalog # 日志 2.我们cd进conf文件夹下,配置zoo.cfg文件,然这个文件夹里只有个叫zoo_sample.cfg(~ 废话,重命名啊 ~) 修改如下图所示: 其实也就是这些参数,有几个不用改。 tickTime=2000 initLimit=10 syncLimit=5 dataDir=/root/app/zookeeper-3.4.10/zkdata clientPort=2181 dataLogDir=/root/app/zookeeper-3.4.10/zkdatalog server.1=master:2888:3888 server.2=slave1:2888:3888

分布式锁与实现(二)——基于ZooKeeper实现

左心房为你撑大大i 提交于 2019-11-30 11:24:49
ZooKeeper是一个分布式的,开放源码的分布式应用程序协调服务,是Google的Chubby一个开源的实现,是Hadoop和Hbase的重要组件。它是一个为分布式应用提供一致性服务的软件,提供的功能包括:配置维护、域名服务、分布式同步、组服务等。 ZooKeeper的架构通过冗余服务实现高可用性。因此,如果第一次无应答,客户端就可以询问另一台ZooKeeper主机。ZooKeeper节点将它们的数据存储于一个分层的命名空间,非常类似于一个文件系统或一个前缀树结构。客户端可以在节点读写,从而以这种方式拥有一个共享的配置服务。更新是全序的。 基于ZooKeeper分布式锁的流程 在zookeeper指定节点(locks)下创建临时顺序节点node_n 获取locks下所有子节点children 对子节点按节点自增序号从小到大排序 判断本节点是不是第一个子节点,若是,则获取锁;若不是,则监听比该节点小的那个节点的删除事件 若监听事件生效,则回到第二步重新进行判断,直到获取到锁 具体实现 下面就具体使用java和zookeeper实现分布式锁,操作zookeeper使用的是apache提供的zookeeper的包。 通过实现Watch接口,实现process(WatchedEvent event)方法来实施监控,使CountDownLatch来完成监控

zookeeper集群的安装配置

非 Y 不嫁゛ 提交于 2019-11-30 11:22:32
zookeeper介绍 ZooKeeper是一个分布式的,开放源码的分布式应用程序协调服务,是Google的Chubby一个开源的实现,是Hadoop和Hbase的重要组件。它是一个为分布式应用提供一致性服务的软件,提供的功能包括:配置维护、名字服务、分布式同步、组服务等。这是百度百科上的一个介绍,有同学想要了解zookeeper的详细信息,可以看一下官方的文档和一些相关博客。本文只介绍如何安装zookeeper。 zookeeper的安装配置 设定我们有三台服务器:hostname1,hostname2,hostname3。 首先需要确定每台机器都能识别这三个主机名。可以在/etc/hosts文件中进行配置。 172.18.11.1 hostname1 172.18.11.2 hostname2 172.18.11.3 hostname3 另外还需要确认每台机器上都配好了java环境。 下载zookeeper并解压 下载地址: http://www.webhostingreviewjam.com/mirror/apache/zookeeper/zookeeper-3.4.6/zookeeper-3.4.6.tar.gz 把zookeeper解压到指定文件夹下,这里解压到/opt文件夹下 tar zxvf zookeeper-3.4.6.tar.gz -C /opt/ ln -s

SolrCloud 4.3.1+Tomcat 7安装配置实践

眉间皱痕 提交于 2019-11-30 08:20:08
我们使用Solr Replication可以实现Solr服务器的可用性,即使某一个索引副本由于磁盘介质故障或者误操作删除等,其他的多个复制副本仍然可以提供服务。如果只是单纯的基于Solr Replication技术,只能对一个索引进行管理维护,当索引数据达到一定规模,搜索的性能成了瓶颈,除了重新规划设计索引,实现逻辑划分以外,没有更好地方法实现查询服务器的可扩展性。 SolrCloud就是为了解决这个问题而提出的。SolrCloud通过ZooKeeper集群来进行协调,使一个索引(SolrCloud中叫做一个Collection)进行分片,各个分片可以分布在不同的物理节点上,而且,对于同一个Collection的多个分片(Shard)之间没有交集,亦即,多个物理分片组成一个完成的索引Collection。为了保证分片数据的可用性,SolrCloud自动支持Solr Replication,可以同时对分片进行复制,冗余存储。下面,我们基于Solr最新的4.3.1版本进行安装配置SolrCloud集群,通过实践来实现索引数据的分布存储和检索。 准备工作 服务器信息 三台服务器: [plain] view plain copy 10.95.3.61 master 10.95.3.62 slave1 10.95.3.65 slave4 ZooKeeper集群配置 安装ZooKeeper集群