Impala安装部署

依然范特西╮ 提交于 2019-12-09 18:06:42
  1. 安装前提
    集群提前安装好hadoop,hive。
    hive安装包scp在所有需要安装impala的节点上,因为impala需要引用hive的依赖包。
    hadoop框架需要支持C程序访问接口,查看下图,如果有该路径下有这么文件,就证明支持C接口。
    在这里插入图片描述

  2. 软件包的上传解压
    说明 A:安装impala 至少需要保证制作impala 源的节点有11G的剩余使用空间
    tar.gz需要使用5G+,解压后需要5.1G
    若空间不足,自己添加新硬盘。
    B: rz 最大只能上传4G以内的数据,所以需要换种方式上传例如使用sslclient.

  3. 配置本地资源库(impala 的资源)
    1、前提:安装nc(若是多个节点,每个节点都需要安装nc)
    在这里插入图片描述
    2、配置impala 源
    yum install -y httpd
    /etc/init.d/httpd start
    cd /var/www/html/
    ln -s /mnt/disk1/cdrom/cdh/5.14.0 CDH
    cd /etc/yum.repos.d/
    vi cdh.repo
    [c6-media] name=CentOS-$releasever - Media baseurl=http://192.168.100.213/CDH gpgcheck=0 enabled=1
    命令:yum search impala
    效果:(出现以下效果说明配置成功)在这里插入图片描述

  4. 安装impala 在impala主节点安装
    在impala主节点安装:yum install -y impala impala-server impala-state-store impala-catalog impala-shell
    在从节点安装:yum install -y impala-server

    1、修改hive hdfs 的配置文件
    vim /export/servers/hive/conf/hive-site.xml
    添加,或编辑
    <property>
    <name>hive.metastore.uris</name>
    <value>thrift://node-1:9083</value>
    </property>
    node-1:配置的是哪个节点就要在哪个节点启动
    2、 所有节点创建下述文件夹
    mkdir -p /var/run/hdfs-sockets
    在vim etc/hadoop/hdfs-site.xml添加以下内容

    <property>
    <name>dfs.client.read.shortcircuit</name>
    <value>true</value>
    </property>
    <property>
    <name>dfs.domain.socket.path</name>
    <value>/var/run/hdfs-sockets/dn</value>
    </property>
    <property>
    <name>dfs.client.file-block-storage-locations.timeout.millis</name>
    <value>10000</value>
    </property>
    <property>
    <name>dfs.datanode.hdfs-blocks-metadata.enabled</name>
    <value>true</value>
    </property>

    将更新过后的配置文件发送到集群的所有节点

  5. impala的配置目录为/etc/impala/conf/(创建这个路径),这个路径下面需要把core-site.xml,hdfs-site.xml以及hive-site.xml。
    所有节点执行以下命令
    cp -r /export/servers/hadoop-2.7.5/etc/hadoop/core-site.xml /etc/impala/conf/core-site.xml
    cp -r /export/servers/hadoop-2.7.5/etc/hadoop/hdfs-site.xml /etc/impala/conf/hdfs-site.xml
    cp -r /export/servers/hive/conf/hive-site.xml /etc/impala/conf/hive-site.xml

  6. 重启hadoop、hive
    ps -ef | grep hive(查看hive是否启动)

  7. 修改impala配置
    1、vim /etc/default/impala
    IMPALA_CATALOG_SERVICE_HOST=node03
    IMPALA_STATE_STORE_HOST=node03
    2、 添加mysql驱动
    取消 /etc/default/impala 配置文件内第20行的注释
    创建软连接
    ln -s /export/servers/hive-1.1.0-cdh5.14.0/lib/mysql-connector-java-5.1.38.jar /usr/share/java/mysqlconnector-java.jar
    3、修改bigtop配置
    vim /etc/default/bigtop-utils
    export JAVA_HOME=/export/servers/jdk1.8.0_65

  8. 启动impala
    前提是:hadoop 集群必须启动,hive 两个服务必须启动
    service impala-state-store start
    service impala-catalog start
    service impala-server start
    ps -ef | grep hive(查看是否启动)

标签
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!