Pyspark学习笔记专栏系列文章目录
Pyspark学习笔记(一)—序言及目录
Pyspark学习笔记(二)— spark-submit命令
Pyspark学习笔记(三)— SparkContext...0.5%', '0.49%', '1.03%'])]
8.reduceByKey(, numPartitions=None, partitionFunc=)
与普通RDD的reduce...操作类似,但是普通RDD的reduce是行动操作,键值对RDD的reduceByKey是转换操作!...10, 20, 30]), ('B',[40, 50, 60]) ], 1)
#注意,因为 reduceByKey 是转换操作,所以 想要看结果需要使用行动操作 collect 进行输出
#而普通的 reduce...[ ('A', [1, 2, 3, 10, 20, 30]), ('B',[4, 5, 6, 40, 50, 60]) ]
可以看出,reduceByKey 其实就相当于 针对每个 key 来进行 reduce