📅  最后修改于: 2020-12-27 02:47:41             🧑  作者: Mango
在Spark中,groupByKey函数是执行数据改组的常用转换操作。它接收键值对(K,V)作为输入,基于键对值进行分组,并生成(K,Iterable
在此示例中,我们根据键对值进行分组。
$ spark-shell
scala> val data = sc.parallelize(Seq(("C",3),("A",1),("B",4),("A",2),("B",5)))
现在,我们可以使用以下命令读取生成的结果。
scala> data.collect
scala> val groupfunc = data.groupByKey()
scala> groupfunc.collect
在这里,我们得到了期望的输出。