CentOS7下hadoop开发
文件准备 centOS下安装wget命令 yum -y install wget wget http://labfile.oss.aliyuncs.com/courses/832/weblog_entries.txt hdfs和本地文件相互复制(hadoop shell命令) 1、 在 HDFS 中创建一个新文件夹,用于保存 weblog_entries.txt 文件: hadoop fs -mkdir -p /data/weblogs 2、 将 weblog_entries.txt 文件从本地文件系统复制到 HDFS 刚创建的新文件夹下: hadoop fs -copyFromLocal weblog_entries.txt /data/weblogs 3、 列出 HDFS 上 weblog_entries.txt 文件的信息: hadoop fs -ls /data/weblogs/weblog_entries.txt 注意: copyFromLocal 和 copyToLocal 只能复制文件到hdfs(hdfs复制到本地), getmerge 则可以把hdfs中文件夹下所有文件合并成一个,复制到本地环境 使用 distcp 实现集群间数据复制 准备 保证复制源和复制目的地能够互相访问 关闭复制源集群 map 任务的推测机制,可以在配置文件 mapred-site.xml