【Spark】Spark常用方法总结1-创建编程入口(Python版本)
前言 今天有时间,将自己的笔记分享出来,方便同僚查阅。不断详细与更新中。为了方便,例子都是以Python写的,后续也会有其他语言的版本。 创建编程入口 SparkContext入口 from pyspark import SparkConf , SparkContext if __name__ == '__main__' : conf = SparkConf ( ) . setAppName ( "test" ) . setMaster ( "local" ) sc = SparkContext ( conf = conf ) rdd1 = sc . parallelize ( [ 1 , 2 , 3 , 4 , 5 ] ) rdd2 = rdd1 . map ( lambda x : x + 1 ) print ( rdd2 . collect ( ) ) SparkSession入口 from pyspark . sql import SparkSession , DataFrame if __name__ == '__main__' : spark : SparkSession = SparkSession . builder . appName ( 'test' ) . master ( 'local' ) . enableHiveSupport ( ) .