📜  Apache Spark笛卡尔函数

📅  最后修改于: 2020-12-27 02:45:47             🧑  作者: Mango

火花笛卡尔函数

在Spark中,笛卡尔函数生成两个数据集的笛卡尔积,并返回所有可能的对组合。这里,一个数据集的每个元素与另一个数据集的每个元素配对。

笛卡尔函数的例子

在此示例中,我们生成两个数据集的笛卡尔乘积。

  • 要在Scala模式下打开Spark,请遵循以下命令。
$ spark-shell

  • 使用并行化的集合创建一个RDD。
scala> val data1 = sc.parallelize(List(1,2,3))
  • 现在,我们可以使用以下命令读取生成的结果。
scala> data1.collect

  • 使用并行化的集合创建另一个RDD。
scala> val data2 = sc.parallelize(List(3,4,5))
  • 现在,我们可以使用以下命令读取生成的结果。
scala> data2.collect

  • 应用Cartesian()函数返回元素的笛卡尔乘积。
scala> val cartesianfunc = data1.cartesian(data2)
  • 现在,我们可以使用以下命令读取生成的结果。
scala> cartesianfunc.collect

在这里,我们得到了期望的输出。