How to add a key manually in PySpark

前端 未结 0 1914
刺人心
刺人心 2020-12-06 03:41

I have a scala code in PySpark.

      val rdd =sparkContext.parallelize(( (1 to 20).map(x=>("key",x))), 4)
      rdd.reduceByKey(_ + _)
      rdd         


        
相关标签:
回答
  • 消灭零回复
提交回复
热议问题