Hbase优化
一:高可用 1):关闭集群 stop-hbase.sh 2):在conf目录下创建 backup-masters 文件 touch backup-masters 3):backup-masters文件中配置高可用 HMaster 节点 echo k200 > backup-masters 4):将整个 conf 目录 scp 到其他节点 scp -r /soft/hive/conf/ k200:/soft/hive/ 5):打开页面测试 二:Hadoop 的通用性优化 1):NameNode 元数据备份使用 SSD 2):定时备份NameNode 上的元数据 通过定时任务复制元数据目录即可 3):为 NameNode 指定多个元数据目录 使用 dfs.name.dir 或者 dfs.namenode.name.dir 指定。这样可以提供元数据的冗余和健壮性,以免发生故障。 4):NameNode的 dir 自恢复 设置 dfs.namenode.name.dir.restore 为 true,允许尝试恢复之前失败的dfs.namenode.name.dir目录,在创建 checkpoint时做此尝试,如果设置了多个磁盘,建议允许。 5):HDFS保证 RPC 调用会有较多的线程数 hdfs-site.xml: 属性:dfs