windows 安装 spark 及 PyCharm IDEA 调试 TopN 实例
首先声明本文搭建的环境为:windows8.1 + spark1.6.0 + python2.7 + jdk8,spark on windows 对 windows及python版本不怎么挑,但是对 spark 版本要求极其苛刻,比如 spark1.6.1 就无法运行。 1、安装 jdk 安装spark第一步就是安装jdk(无论windows还是linux),spark执行依赖jdk。在oracle官网上下载jdk,这里我选择的是8u74 windows x64版本,你也可以根据自己的需求下载,jdk的安装在此不表,无非就是下一步,选安装路径什么的。 关于具体的 jdk path 怎么设置可以参考 hadoop on windows 这个系列,在此不再赘述: http://my.oschina.net/leejun2005/blog?catalog=3609138 2、安装spark 在Apache Spark™官方网站下载spark,选择spark-1.6.0-bin-hadoop2.6.tgz。 添加spark环境变量,在PATH后面追加: %SPARK_HOME%\bin %SPARK_HOME%\sbin windows 环境下的spark搭建完毕!!! 注意此处有坑: Failed to locate the winutils binary in the hadoop