Spark与Scala
首先,介绍一下scala语言:
Scala 是一种把面向对象和函数式编程理念加入到静态类型语言中的混血儿。
为什么学scala?...spark提供了R、Python等语言的接口,为什么还要重新学一门新的语言呢?...Action算子,这类算子会触发SparkContext提交Job作业
下面是我以前总结的一些常用的Spark算子以及Scala函数:
map():将原来 RDD 的每个数据项通过 map 中的用户自定义函数...,包含左RDD的所有数据,如果右边没有与之匹配的用None表示,numPartitions设置分区数,提高作业并行度
//省略
val arr = List(("A", 1), ("B", 2), (...,包含右RDD的所有数据,如果左边没有与之匹配的用None表示,numPartitions设置分区数,提高作业并行度
//省略
val arr = List(("A", 1), ("B", 2), (