【SparkAPI JAVA版】JavaPairRDD——aggregate(一)

网友投稿 616 2022-05-30

/** * Aggregate the elements of each partition, and then the results for all the partitions, using * given combine functions and a neutral "zero value". This function can return a different result * type, U, than the type of this RDD, T. Thus, we need one operation for merging a T into an U * and one operation for merging two U's, as in scala.TraversableOnce. Both of these functions are * allowed to modify and return their first argument instead of creating a new U to avoid memory * allocation. * * @param zeroValue the initial value for the accumulated result of each partition for the * `seqOp` operator, and also the initial value for the combine results from * different partitions for the `combOp` operator - this will typically be the * neutral element (e.g. `Nil` for list concatenation or `0` for summation) * @param seqOp an operator used to accumulate results within a partition * @param combOp an associative operator used to combine results from different partitions */

aggregate先对每个分区的元素做聚集,然后对所有分区的结果做聚集,聚集过程中,使用的是给定的聚集函数以及初始值”zero value”。这个函数能返回一个与原始RDD不同的类型U,因此,需要一个合并RDD类型T到结果类型U的函数,还需要一个合并类型U的函数。这两个函数都可以修改和返回他们的第一个参数,而不是重新新建一个U类型的参数以避免重新分配内存。

参数zeroValue:seqOp运算符的每个分区的累积结果的初始值以及combOp运算符的不同分区的组合结果的初始值 - 这通常将是初始元素(例如“Nil”表的列表 连接或“0”表示求和)

参数seqOp: 每个分区累积结果的聚集函数。

// Scala def aggregate[U: ClassTag](zeroValue: U)(seqOp: (U, T) => U, combOp: (U, U) => U): U // java public static U aggregate(U zeroValue, Function2 seqOp, Function2 combOp)

public class Aggregate { public static void main(String[] args) { System.setProperty("hadoop.home.dir","F:\hadoop-2.7.1"); SparkConf conf = new SparkConf().setMaster("local").setAppName("TestSpark"); JavaSparkContext sc = new JavaSparkContext(conf); JavaPairRDD javaPairRDD = sc.parallelizePairs(Lists.>newArrayList(new Tuple2("cat",34), new Tuple2("cat",34),new Tuple2("dog",34),new Tuple2("tiger",34)),2); // 打印样例数据 javaPairRDD.foreach(new VoidFunction>() { public void call(Tuple2 stringIntegerTuple2) throws Exception { System.out.println("样例数据>>>>>>>" + stringIntegerTuple2); } }); Integer integer = javaPairRDD.aggregate(0, new Function2, Integer>() { public Integer call(Integer v1, Tuple2 v2) throws Exception { System.out.println("seqOp>>>>> 参数One:"+v1+"--参数Two:"+v2); return v1+v2._2(); } }, new Function2() { public Integer call(Integer v1, Integer v2) throws Exception { System.out.println("combOp>>>>> 参数One:"+v1+"--参数Two:"+v2); return v1+v2; } }); System.out.println("result:"+integer); } }

// 打印样例数据 因为是2个分片 所以会隔开打印 如果只有一个分片 中间是没有日志的 样例数据>>>>>>>(cat,34) 样例数据>>>>>>>(cat,34) 19/02/27 23:06:21 INFO Executor: Finished task 0.0 in stage 0.0 (TID 0). 665 bytes result sent to driver 19/02/27 23:06:21 INFO TaskSetManager: Starting task 1.0 in stage 0.0 (TID 1, localhost, executor driver, partition 1, PROCESS_LOCAL, 4907 bytes) 19/02/27 23:06:21 INFO Executor: Running task 1.0 in stage 0.0 (TID 1) 样例数据>>>>>>>(dog,34) 样例数据>>>>>>>(tiger,34) // 进行seqOp 或者也可以说是分片元素聚合 0这个初始值 会被添加进去 seqOp>>>>> 参数One:0--参数Two:(cat,34) seqOp>>>>> 参数One:34--参数Two:(cat,34) 19/02/27 23:06:21 INFO Executor: Finished task 0.0 in stage 1.0 (TID 2). 659 bytes result sent to driver 19/02/27 23:06:21 INFO TaskSetManager: Starting task 1.0 in stage 1.0 (TID 3, localhost, executor driver, partition 1, PROCESS_LOCAL, 4907 bytes) 19/02/27 23:06:21 INFO Executor: Running task 1.0 in stage 1.0 (TID 3) seqOp>>>>> 参数One:0--参数Two:(dog,34) seqOp>>>>> 参数One:34--参数Two:(tiger,34) // 进行combOp 也可以说是分片结果聚合 combOp>>>>> 参数One:0--参数Two:68 combOp>>>>> 参数One:68--参数Two:68 // 最终结果 result:136

从上述过程中,我们就能明白流程是什么了。

seqOp(分片元素聚合)

开始我们的数据是:

【SparkAPI JAVA版】JavaPairRDD——aggregate(一)

分片1:(cat,34) (cat,34)

分片2:(dog,34) (tiger,34)

// 这里只有两个分片 所以写两个过程 第一个分片开始元素聚合过程: zeroValue + 第一个元素值 = 结果1, 结果1+第二个元素值 = 结果2, 。。。。 结果n-1 + 结果n = 分片结果1。 第二个分片开始元素聚合过程: zeroValue + 第一个元素值 = 结果1, 结果1+第二个元素值 = 结果2, 。。。。 结果n-1 + 结果n = 分片结果2。

combOp(分片结果聚合)

开始分片结果聚合过程: zeroValue + 分片结果1 = 最终结果1, 最终结果1+ 分片结果2 = 最终结果2 最终得到的最终结果2 就是返回的结果 136

如果有什么不明白的评论留言即可。

EI企业智能 spark 可信智能计算服务 TICS 智能数据

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:一文搞懂测试左移和测试右移的 Why-How-What
下一篇:技术分享 | web前端的HTML浅析
相关文章