注意修改完HDFS相关配置后,需要把配置scp给集群中每台机器,重启hdfs集群。
1.1.修改core-site.xml配置
<!—允许通过httpfs方式访问hdfs的主机名 -->
<property>
<name>hadoop.proxyuser.root.hosts</name>
<value>*</value>
</property>
<!—允许通过httpfs方式访问hdfs的用户组 -->
<property>
<name>hadoop.proxyuser.root.groups</name>
<value>*</value>
</property>
1.2.修改hdfs-site.xml配置
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
1.3.修改 hue.ini
cd /export/servers/hue-3.9.0-cdh5.14.0/desktop/conf
vim hue.ini
[[hdfs_clusters]]
[[[default]]]
fs_defaultfs=hdfs://node-1:9000
webhdfs_url=http://node-1:50070/webhdfs/v1
hadoop_hdfs_home= /export/servers/hadoop-2.7.5
hadoop_bin=/export/servers/hadoop-2.7.5/bin
hadoop_conf_dir=/export/servers/hadoop-2.7.5/etc/hadoop
1.4.重启HDFS、Hue
start-dfs.sh
cd /export/servers/hue-3.9.0-cdh5.14.0/
build/env/bin/supervisor
两页书的这个就是 HDFS 有数据就代表 成功。
来源:CSDN
作者:沙漠一只雕?
链接:https://blog.csdn.net/bbvjx1314/article/details/103519477