在Spark中,Map将源数据的每个元素通过一个函数进行处理,并生成一个新的分布式数据集。
在这个示例中,我们为每个元素加上一个常量值10。
$ spark-shell
scala> val data = sc.parallelize(List(10,20,30))
scala> data.collect
scala> val mapfunc = data.map(x => x+10)
scala> mapfunc.collect
这里,我们得到了期望的输出。
本文链接:http://so.lmcjl.com/news/20175/