📅  最后修改于: 2020-12-27 02:44:50             🧑  作者: Mango
在Spark中,交集函数返回一个新的数据集,其中包含不同数据集中存在的元素的交集。因此,它仅返回单行。此函数的行为类似于SQL中的INTERSECT查询。
在此示例中,我们将两个数据集的元素相交。
$ spark-shell
scala> val data1 = sc.parallelize(List(1,2,3))
scala> data1.collect
scala> val data2 = sc.parallelize(List(3,4,5))
scala> data2.collect
scala> val intersectfunc = data1.intersection(data2)
scala> intersectfunc.collect
在这里,我们得到了期望的输出。