超详细的hadoop伪分布配置教程

╄→гoц情女王★ 提交于 2020-10-22 02:01:06

创建虚拟机:1
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述配置静态ip:2


第一步是首先查看虚拟网络编辑器。查看网关和起始结束ip
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述在这里插入图片描述
在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述



如果不能ping网络则可能是以下问题:

在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述xshell连接虚拟机:
在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述接下来我们就在usr/local目录下传文件
在这里插入图片描述
这里说一下返回上一级目录的命令是cd..
在这里插入图片描述接下来配置java和hadoop的环境变量但是配置环境变量前要先进虚拟机中原有的java包删掉
在这里插入图片描述在这里插入图片描述在这里插入图片描述接下来配置ssh无密码登陆以及主机名和主机和ip映射以及主节点
在这里插入图片描述在这里插入图片描述
在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述
在这里插入图片描述在这里插入图片描述
在这里插入图片描述在这里插入图片描述去到usr/local路径解压java和hadoop
在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述关闭防火墙:









查看防火墙状况 systemctl status firewalld.service

在这里插入图片描述关闭防火墙:systemctl stop firewalld.service
在这里插入图片描述
永久关闭防火墙:

systemctl disable firewalld.service

配置环境变量:

#java环境变量
JAVA_HOME=/usr/local/jdk1.8.0_241
HADOOP_HOME=/usr/local/hadoop-2.7.1
CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
export JAVA_HOME PATH CLASSPATH HADOOP_HOME

在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述接下来配置hadoop-env.sh
在这里插入图片描述注意配置完后让它生效不然会报错

source hadoop-env.sh生效命令

接下来是core-site.xml
在这里插入图片描述
core-site.xml:

<configuration>
<property>
<!--用来指定hdfs的老大,namenode的地址-->
    <name>fs.default.name</name>
    <value>hdfs://hadoop01:9000</value>
  </property>
  <property>
<!--用来指定hadoop运行时产生文件的存放目录。注意目录是要真实存在的,若没有则自己创建-->
    <name>hadoop.tmp.dir</name>
    <value>/home/software/hadoop-2.7.1/tmp</value>
  </property>
<!--value的时间单位是分钟,如果配置成0,表示不开启HDFS的回收站
         1440=24*60,表示的一天的回收间隔,即文件在回收站存在一天后,被清空-->
  <property>
    <name>fs.trash.interval</name>
    <value>1440</value>
  </property>

</configuration>

在这里插入图片描述接下来配置hdfs-site.xml

命令vim hdfs-site.xml

在这里插入图片描述
hdfs-site.xml:

<!--指定hdfs保存数据副本的数量,包括自己,默认值是3--><!--如果是伪分布模式,此值是1,因为只有一台服务器-->  <property>    <name>dfs.replication</name>    <value>1</value>  </property><!--设置hdfs的操作权限,false表示任何用户都可以在hdfs上操作文件-->  <property>    <name>dfs.permissions</name>    <value>false</value>  </property></configuration>sql接下来配置mapred-site.xml

mapred-site.xml:
<!--指定mapreduce运行在yarn上-->
  <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
  </property>

接下来配置yarn-site.xml

命令 vim yarn-site.xml

在这里插入图片描述
yarn-site.xml:

<property>
    <name>yarn.resourcemanager.hostname</name>
    <value>hadoop01</value>
  </property>
<!--NodeManager获取数据的方式-->
  <property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
  </property>

然后到hadoop-2.7.1下创建一个tmp目录

命令mkdir tmp

在这里插入图片描述最后到了格式化的时候了先打个快照
格式化

格式化hadoop的命令是 hadoop namenode -format
它要在hadoop-2.7.1/etc/hadoop目录进行格式化

在这里插入图片描述
在这里插入图片描述所以使用export命令查看环境变量是否有错
在这里插入图片描述重新再hadoop-env.sh中声明环境变量

命令是它的目录在hadoop-2.7.1/etc/hadoop
命令 vim hadoop-env.sh进入修改JAVA_HOME,HADOOP_CONF_DIR,并执行 source hadoop-env.sh 命令,让配置立即生效

修改:

#指定jdk的安装路径,尽管环境变量PATH配置了JAVA_HOME,但hadoop也需要配置
export JAVA_HOME=/usr/local/jdk1.8.0_241
#hadoop配置文件存放路径
export HADOOP_CONF_DIR=/usr/local/hadoop-2.7.1/etc/hadoop

别忘记执行生效命令

在hadoop-2.7.1下的sbin目录下启动hadoop
命令start-all.sh
命令jps查看和java相关的进程出现以下的节点说明配置成功

在这里插入图片描述
最后通过web页面访问50070

http://192.168.121.111:50070
192.168.121.111是自己的端口

还有在hadoop3.0的版本slaves改为了workers

易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!