spark中的python 和 scala的shell

故事扮演 提交于 2020-02-28 23:30:49

本机:win10

python3.5.4

spark3.0.0

JDK13.0.1

scala2.13.1

hadoop2.7.7

 

终端输入  spark-shell进入scala的shell

 

打开python版本的Spark shell,也就是PySpark shell

若没有配置spark环境需要:

进入你的spark目录然后输入:

          bin\pyspark

若已经配置了spark环境

终端输入  pyspark   进入python

 

易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!