📜  Apache Spark过滤器功能

📅  最后修改于: 2020-12-27 02:41:04             🧑  作者: Mango

火花过滤器功能

在Spark中,Filter函数返回一个新的数据集,该数据集是通过选择源函数返回true的那些元素形成的。因此,它仅检索满足给定条件的元素。

过滤函数示例

在此示例中,我们过滤给定的数据并检索除35之外的所有值。

  • 要在Scala模式下打开火花,请遵循以下命令。
$ spark-shell

  • 使用并行化集合创建RDD。
scala> val data = sc.parallelize(List(10,20,35,40))
  • 现在,我们可以使用以下命令读取生成的结果。
scala> data.collect

  • 应用过滤器函数并传递执行所需的表达式。
scala> val filterfunc = data.filter(x => x!=35)
  • 现在,我们可以使用以下命令读取生成的结果。
scala> filterfunc.collect

在这里,我们得到了期望的输出。