提交任务到Spark
1.场景 在搭建好Hadoop+Spark环境后,现准备在此环境上提交简单的任务到Spark进行计算并输出结果。搭建过程: http://www.cnblogs.com/zengxiaoliang/p/6478859.html 本人比较熟悉Java语言,现以Java的WordCount为例讲解这整个过程,要实现计算出给定文本中每个单词出现的次数。 2.环境测试 在讲解例子之前,我想先测试一下之前搭建好的环境。 2.1测试Hadoop环境 首先创建一个文件wordcount.txt 内容如下: Hello hadoop hello spark hello bigdata yellow banana red apple 然后执行如下命令: hadoop fs -mkdir -p /Hadoop/Input (在HDFS创建目录) hadoop fs -put wordcount.txt /Hadoop/Input (将wordcount.txt文件上传到HDFS) hadoop fs -ls /Hadoop/Input (查看上传的文件) hadoop fs -text /Hadoop/Input/wordcount.txt (查看文件内容) 2.2Spark环境测试 我使用spark-shell