-
安装前提
集群提前安装好hadoop,hive。
hive安装包scp在所有需要安装impala的节点上,因为impala需要引用hive的依赖包。
hadoop框架需要支持C程序访问接口,查看下图,如果有该路径下有这么文件,就证明支持C接口。 -
软件包的上传解压
说明 A:安装impala 至少需要保证制作impala 源的节点有11G的剩余使用空间
tar.gz需要使用5G+,解压后需要5.1G
若空间不足,自己添加新硬盘。
B: rz 最大只能上传4G以内的数据,所以需要换种方式上传例如使用sslclient. -
配置本地资源库(impala 的资源)
1、前提:安装nc(若是多个节点,每个节点都需要安装nc)
2、配置impala 源
yum install -y httpd
/etc/init.d/httpd start
cd /var/www/html/
ln -s /mnt/disk1/cdrom/cdh/5.14.0 CDH
cd /etc/yum.repos.d/
vi cdh.repo
[c6-media] name=CentOS-$releasever - Media baseurl=http://192.168.100.213/CDH gpgcheck=0 enabled=1
命令:yum search impala
效果:(出现以下效果说明配置成功) -
安装impala 在impala主节点安装
在impala主节点安装:yum install -y impala impala-server impala-state-store impala-catalog impala-shell
在从节点安装:yum install -y impala-server1、修改hive hdfs 的配置文件
vim /export/servers/hive/conf/hive-site.xml
添加,或编辑
<property>
<name>hive.metastore.uris</name>
<value>thrift://node-1:9083</value>
</property>
node-1:配置的是哪个节点就要在哪个节点启动
2、 所有节点创建下述文件夹
mkdir -p /var/run/hdfs-sockets
在vim etc/hadoop/hdfs-site.xml添加以下内容<property>
<name>dfs.client.read.shortcircuit</name>
<value>true</value>
</property>
<property>
<name>dfs.domain.socket.path</name>
<value>/var/run/hdfs-sockets/dn</value>
</property>
<property>
<name>dfs.client.file-block-storage-locations.timeout.millis</name>
<value>10000</value>
</property>
<property>
<name>dfs.datanode.hdfs-blocks-metadata.enabled</name>
<value>true</value>
</property>将更新过后的配置文件发送到集群的所有节点
-
impala的配置目录为/etc/impala/conf/(创建这个路径),这个路径下面需要把core-site.xml,hdfs-site.xml以及hive-site.xml。
所有节点执行以下命令
cp -r /export/servers/hadoop-2.7.5/etc/hadoop/core-site.xml /etc/impala/conf/core-site.xml
cp -r /export/servers/hadoop-2.7.5/etc/hadoop/hdfs-site.xml /etc/impala/conf/hdfs-site.xml
cp -r /export/servers/hive/conf/hive-site.xml /etc/impala/conf/hive-site.xml -
重启hadoop、hive
ps -ef | grep hive(查看hive是否启动) -
修改impala配置
1、vim /etc/default/impala
IMPALA_CATALOG_SERVICE_HOST=node03
IMPALA_STATE_STORE_HOST=node03
2、 添加mysql驱动
取消 /etc/default/impala 配置文件内第20行的注释
创建软连接
ln -s /export/servers/hive-1.1.0-cdh5.14.0/lib/mysql-connector-java-5.1.38.jar /usr/share/java/mysqlconnector-java.jar
3、修改bigtop配置
vim /etc/default/bigtop-utils
export JAVA_HOME=/export/servers/jdk1.8.0_65 -
启动impala
前提是:hadoop 集群必须启动,hive 两个服务必须启动
service impala-state-store start
service impala-catalog start
service impala-server start
ps -ef | grep hive(查看是否启动)
来源:CSDN
作者:Dreamy_zsy
链接:https://blog.csdn.net/Dreamy_zsy/article/details/103456318