大数据教程(6.5)hadoop shell命令操作&mapreduce程序运行初体验
上一篇文章,博主为大家分享了hadoop的安装以及集群的启动,本篇博客将带领小伙伴们一起来感受下hadoop命令和Linux命令的使用有什么不同。 一、首先,启动hadoop集群,执行脚本sh start-dfs.sh;sh start-yarn.sh 二、浏览器中查看dfs中的文件目录(此时文件为空),对应的到hadoop中数据节点中的路径/home/hadoop/hdpdata/dfs/data/current/BP-302498708-192.168.29.144-1540943832361/current/finalized,其中/home/hadoop/hdpdata为配置文件中配dfs路径。 三、命令行使用体验 #查看hdfs根目录 hadoop fs -ls hdfs://centos-aaron-h1:9000/ 或 hadoop fs -ls / #将test.avi这个文件上传到hdfs跟目录中,默认为128m才切开成不同的块来存放. hadoop fs -put test.avi / hadoop fs -put test.avi test1.avi / #如果文件被切成了不同的块,我们知道是哪几个块的话,可以用块直接还原文件 cat bloc_2034655 >>hadoop.file cat bloc_2034656 >>hadoop.file tar