继续浏览精彩内容
慕课网APP
程序员的梦工厂
打开
继续
感谢您的支持,我会继续努力的
赞赏金额会直接到老师账户
将二维码发送给自己后长按识别
微信支付
支付宝支付

Spark从入门到放弃系列(二) -----Spark 共享变量工作原理

至尊宝的传说
关注TA
已关注
手记 129
粉丝 82
获赞 463

1.原理

    Spark的一个重要特性就是共享变量。默认情况下,如果在一个算子的函数中使用到某个外部的变量,那么这个变量的值会被拷贝到每个task中。此时每个task都只能操作自己的变量副本,如果多个task想要共享某个变量,那么这种方式是无法实现的。

   Spark为了解决task共享变量的问题,提供了两种变量。一种是Broadcast Variable(广播变量),另一种是Accumulator(累计变量)。Broadcast Variable将使用的变量,为每个节点拷贝一份,更大的用处是优化性能,减少网络传输以及内存消耗。Accumulator则可以让多个task共同操作一份变量,主要进行累加操作。

1.1 Broadcast Variable

   Spark提供的Broadcast Variable,是只读的,并且在每个节点上只会有一份副本,而不会为每个task都拷贝一份副本。因此其最大作用,就是减少变量到各个节点的网络传输消耗,以及在各个节点的内存消耗。此外,Spark自己内部也使用了高效的广播算法来减少网络消耗。

    可以通过调用SparkContext的broadcast()方法,来针对某个变量创建广播变量。然后在算子的函数内,使用到广播变量时,每个节点只会拷贝一份副本。每个节点可以使用广播变量的value()方法获取值,记住广播变量,是只读的。 

1.2 Accumulator

    Spark提供的Accumulator,主要用于多个节点对一个变量进行共享性的操作。Accumulator只提供了累加的功能。即确提供了多个task对一个变量并行操作的功能。但是task只能对Accumulator进行累加操作不能读取Accumulator的值,只有Driver程序可以读取Accumulator的值。


2.代码实现

2.1 Java代码实现 

  1. public class BroadcastVariable {             //广播变量  

  2.   

  3.     public static void main(String []args){  

  4.         SparkConf conf = new SparkConf()  

  5.                 .setAppName("broadcast")  

  6.                 .setMaster("local");  

  7.   

  8.         JavaSparkContext sc = new JavaSparkContext(conf);  

  9.   

  10.         //广播变量  

  11.         int factor = 3;  

  12.         final Broadcast<Integer> brocast = sc.broadcast(factor);  

  13.         List<Integer> numbers = Arrays.asList(1,2,3,4,5);  

  14.   

  15.         JavaRDD<Integer> numRDD = sc.parallelize(numbers,1);  

  16.         JavaRDD<Integer> broadRDD = numRDD.map(new Function<Integer, Integer>() {  

  17.             public Integer call(Integer v1) throws Exception {  

  18.                 return v1 * brocast.value();            //只读<读取广播变量>  

  19.             }  

  20.         });  

  21.   

  22.         broadRDD.foreach(new VoidFunction<Integer>() {  

  23.             public void call(Integer v1) throws Exception {  

  24.                 System.out.println(v1);  

  25.             }  

  26.         });  

  27.   

  28.         sc.close();  

  29.   

  30.     }  

  31. }  


  1. public class AccumulatorVariable {            //Accumulator累加器  

  2.     public static void main(String []args){  

  3.         SparkConf conf = new SparkConf()  

  4.                 .setAppName("accumulator")  

  5.                 .setMaster("local");  

  6.   

  7.         JavaSparkContext sc = new JavaSparkContext(conf);  

  8.         final Accumulator<Integer> sum = sc.accumulator(0);  

  9.   

  10.         List<Integer> numbers = Arrays.asList(1,2,3,4,5);  

  11.         JavaRDD<Integer> numberRDD = sc.parallelize(numbers);  

  12.         numberRDD.foreach(new VoidFunction<Integer>() {  

  13.             public void call(Integer v1) throws Exception {  

  14.                 sum.add(v1);  

  15.             }  

  16.         });  

  17.   

  18.         System.out.println(sum);  

  19.   

  20.         sc.close();  

  21.     }  

  22. }  

2.2 Scal代码实现


  1. object BroadcastVariable {                       //广播变量  

  2.   

  3.   def main(args: Array[String]): Unit = {  

  4.   

  5.     val conf = new SparkConf()  

  6.           .setAppName("broabcast")  

  7.           .setMaster("local")  

  8.   

  9.     val sc = new SparkContext(conf)  

  10.   

  11.     val factor = 3  

  12.     val broadcast = sc.broadcast(factor)  

  13.   

  14.     val numbers = Array(1,2,3,4,5)  

  15.     val numberRDD = sc.parallelize(numbers,1)  

  16.   

  17.     val nRDD = numberRDD.map(row => {  

  18.       row * broadcast.value   //只读<读取广播变量>  

  19.     })  

  20.       

  21.     nRDD.foreach(item => {println(item)})  

  22.   

  23.     sc.stop()  

  24.   }  

  25. }  


  1. //累加变量  

  2. object AccumulatorVariable {  

  3.   

  4.   

  5.   def main(args: Array[String]): Unit = {  

  6.     val conf = new SparkConf()  

  7.         .setAppName("accumulatorVariable")  

  8.         .setMaster("local")  

  9.   

  10.   

  11.     val sc = new SparkContext(conf)  

  12.     val sum = sc.accumulator(0)  

  13.   

  14.   

  15.     val numberRDD = sc.parallelize(Array(1,2,3,4,5),1)  

  16.   

  17.   

  18.     numberRDD.foreach(item => {sum.add(item)})  

  19.   

  20.   

  21.     println(sum)  

  22.   

  23.   

  24.     sc.stop()  

  25.   }  

  26.   

  27.   

  28. }  

原文出处

打开App,阅读手记
0人推荐
发表评论
随时随地看视频慕课网APP