📅  最后修改于: 2020-12-27 02:40:06             🧑  作者: Mango
在Spark中,地图通过函数传递源的每个元素,并形成一个新的分布式数据集。
在此示例中,我们向每个元素添加常数10。
$ spark-shell
scala> val data = sc.parallelize(List(10,20,30))
scala> data.collect
scala> val mapfunc = data.map(x => x+10)
scala> mapfunc.collect
在这里,我们得到了期望的输出。