Scala reduce()函数
reduce() 方法是一个高阶函数,它接收一个集合(数组、列表等)中的所有元素,并使用 二进制操作 将它们组合起来,产生一个单一的值。有必要确保操作是互换的和关联的。匿名函数作为参数传递给reduce函数。
语法 :
val l = List(2, 5, 3, 6, 4, 7)
// returns the largest number from the collection
l.reduce((x, y) => x max y)
通过 还原法 选择数字进行运算的顺序是随机的。这就是为什么非交换性和非关联性操作不被看好的原因。
例子:
// Scala program to
// print maximum value
// using reduce()
// Creating object
object GfG
{
// Main method
def main(args:Array[String])
{
// source collection
val collection = List(1, 3, 2, 5, 4, 7, 6)
// finding the maximum valued element
val res = collection.reduce((x, y) => x max y)
println(res)
}
}
输出 :
7
在上述程序中,减少方法选择随机对,并找出特定对中的最大值。这些值会再次相互比较,直到得到一个单一的最大值元素。在Spark中处理弹性分布式数据集时,我们通常会将reduce()方法和map()方法一起使用。map()方法帮助我们将一个集合转换为另一个集合,而reduce()方法则允许我们执行一些操作。
使用map()和reduce()寻找平均值:
例子:
// Scala program to
// print average
// using map() and reduce()
//Creating object
object GfG
{
// Main method
def main(args:Array[String])
{
// source collection
val collection = List(1, 5, 7, 8)
// converting every element to a pair of the form (x,1)
// 1 is initial frequency of all elements
val new_collection = collection.map(x => (x,1))
/*
List((1, 1), (5, 1), (7, 1), (8, 1))
*/
// adding elements at corresponding positions
val res = new_collection.reduce( (a,b) => ( a._1 + b._1,
a._2 + b._2 ) )
/*
(21, 4)
*/
println(res)
println("Average="+ res._1/res._2.toFloat)
}
}
输出 :
(21, 4)
Average= 5.25
在上述程序中,集合中的所有元素都被转化为有两个元素的元组。元组的第一个元素是数字本身,第二个元素是计数器。最初所有的计数器都被设置为1。输出本身是一个有两个元素的元组:第一个值是总和,第二个值是元素的数量。
注 :reduce()方法给出的输出类型与集合中元素的类型相同。
极客教程