Spark自定义累加器的使用实例详解
累加器(accumulator)是Spark中提供的一种分布式的变量机制,其原理类似于mapreduce,即分布式的改变,然后聚合这些改变。累加器的一个常见用途是在调试时对作业执行过程中的事件进行计数。
累加器简单使用
Spark内置的提供了Long和Double类型的累加器。下面是一个简单的使用示例,在这个例子中我们在过滤掉RDD中奇数的同时进行计数,最后计算剩下整数的和。
valsparkConf=newSparkConf().setAppName("Test").setMaster("local[2]") valsc=newSparkContext(sparkConf) valaccum=sc.longAccumulator("longAccum")//统计奇数的个数 valsum=sc.parallelize(Array(1,2,3,4,5,6,7,8,9),2).filter(n=>{ if(n%2!=0)accum.add(1L) n%2==0 }).reduce(_+_) println("sum:"+sum) println("accum:"+accum.value) sc.stop()
结果为:
sum:20
accum:5
这是结果正常的情况,但是在使用累加器的过程中如果对于spark的执行过程理解的不够深入就会遇到两类典型的错误:少加(或者没加)、多加。
自定义累加器
自定义累加器类型的功能在1.X版本中就已经提供了,但是使用起来比较麻烦,在2.0版本后,累加器的易用性有了较大的改进,而且官方还提供了一个新的抽象类:AccumulatorV2来提供更加友好的自定义类型累加器的实现方式。官方同时给出了一个实现的示例:CollectionAccumulator类,这个类允许以集合的形式收集spark应用执行过程中的一些信息。例如,我们可以用这个类收集Spark处理数据时的一些细节,当然,由于累加器的值最终要汇聚到driver端,为了避免driver端的outofmemory问题,需要对收集的信息的规模要加以控制,不宜过大。
继承AccumulatorV2类,并复写它的所有方法
packagespark importconstant.Constant importorg.apache.spark.util.AccumulatorV2 importutil.getFieldFromConcatString importutil.setFieldFromConcatString openclassSessionAccmulator:AccumulatorV2(){ privatevarresult=Constant.SESSION_COUNT+"=0|"+ Constant.TIME_PERIOD_1s_3s+"=0|"+ Constant.TIME_PERIOD_4s_6s+"=0|"+ Constant.TIME_PERIOD_7s_9s+"=0|"+ Constant.TIME_PERIOD_10s_30s+"=0|"+ Constant.TIME_PERIOD_30s_60s+"=0|"+ Constant.TIME_PERIOD_1m_3m+"=0|"+ Constant.TIME_PERIOD_3m_10m+"=0|"+ Constant.TIME_PERIOD_10m_30m+"=0|"+ Constant.TIME_PERIOD_30m+"=0|"+ Constant.STEP_PERIOD_1_3+"=0|"+ Constant.STEP_PERIOD_4_6+"=0|"+ Constant.STEP_PERIOD_7_9+"=0|"+ Constant.STEP_PERIOD_10_30+"=0|"+ Constant.STEP_PERIOD_30_60+"=0|"+ Constant.STEP_PERIOD_60+"=0" overridefunvalue():String{ returnthis.result } /** *合并数据 */ overridefunmerge(other:AccumulatorV2 ?){ if(other==null)returnelse{ if(otherisSessionAccmulator){ varnewResult="" valresultArray=arrayOf(Constant.SESSION_COUNT,Constant.TIME_PERIOD_1s_3s,Constant.TIME_PERIOD_4s_6s,Constant.TIME_PERIOD_7s_9s, Constant.TIME_PERIOD_10s_30s,Constant.TIME_PERIOD_30s_60s,Constant.TIME_PERIOD_1m_3m, Constant.TIME_PERIOD_3m_10m,Constant.TIME_PERIOD_10m_30m,Constant.TIME_PERIOD_30m, Constant.STEP_PERIOD_1_3,Constant.STEP_PERIOD_4_6,Constant.STEP_PERIOD_7_9, Constant.STEP_PERIOD_10_30,Constant.STEP_PERIOD_30_60,Constant.STEP_PERIOD_60) resultArray.forEach{ valoldValue=other.result.getFieldFromConcatString("|",it) if(oldValue.isNotEmpty()){ valnewValue=oldValue.toInt()+1 //找到原因,一直在循环赋予值,debug30分钟很烦 if(newResult.isEmpty()){ newResult=result.setFieldFromConcatString("|",it,newValue.toString()) } //问题就在于这里,自定义没有写错,合并错了 newResult=newResult.setFieldFromConcatString("|",it,newValue.toString()) } } result=newResult } } } overridefuncopy():AccumulatorV2 { valsessionAccmulator=SessionAccmulator() sessionAccmulator.result=this.result returnsessionAccmulator } overridefunadd(p0:String?){ valv1=this.result valv2=p0 if(v2.isNullOrEmpty()){ return }else{ varnewResult="" valoldValue=v1.getFieldFromConcatString("|",v2!!) if(oldValue.isNotEmpty()){ valnewValue=oldValue.toInt()+1 newResult=result.setFieldFromConcatString("|",v2,newValue.toString()) } result=newResult } } overridefunreset(){ valnewResult=Constant.SESSION_COUNT+"=0|"+ Constant.TIME_PERIOD_1s_3s+"=0|"+ Constant.TIME_PERIOD_4s_6s+"=0|"+ Constant.TIME_PERIOD_7s_9s+"=0|"+ Constant.TIME_PERIOD_10s_30s+"=0|"+ Constant.TIME_PERIOD_30s_60s+"=0|"+ Constant.TIME_PERIOD_1m_3m+"=0|"+ Constant.TIME_PERIOD_3m_10m+"=0|"+ Constant.TIME_PERIOD_10m_30m+"=0|"+ Constant.TIME_PERIOD_30m+"=0|"+ Constant.STEP_PERIOD_1_3+"=0|"+ Constant.STEP_PERIOD_4_6+"=0|"+ Constant.STEP_PERIOD_7_9+"=0|"+ Constant.STEP_PERIOD_10_30+"=0|"+ Constant.STEP_PERIOD_30_60+"=0|"+ Constant.STEP_PERIOD_60+"=0" result=newResult } overridefunisZero():Boolean{ valnewResult=Constant.SESSION_COUNT+"=0|"+ Constant.TIME_PERIOD_1s_3s+"=0|"+ Constant.TIME_PERIOD_4s_6s+"=0|"+ Constant.TIME_PERIOD_7s_9s+"=0|"+ Constant.TIME_PERIOD_10s_30s+"=0|"+ Constant.TIME_PERIOD_30s_60s+"=0|"+ Constant.TIME_PERIOD_1m_3m+"=0|"+ Constant.TIME_PERIOD_3m_10m+"=0|"+ Constant.TIME_PERIOD_10m_30m+"=0|"+ Constant.TIME_PERIOD_30m+"=0|"+ Constant.STEP_PERIOD_1_3+"=0|"+ Constant.STEP_PERIOD_4_6+"=0|"+ Constant.STEP_PERIOD_7_9+"=0|"+ Constant.STEP_PERIOD_10_30+"=0|"+ Constant.STEP_PERIOD_30_60+"=0|"+ Constant.STEP_PERIOD_60+"=0" returnthis.result==newResult } }
方法介绍
value方法:获取累加器中的值
merge方法:该方法特别重要,一定要写对,这个方法是各个task的累加器进行合并的方法(下面介绍执行流程中将要用到)
iszero方法:判断是否为初始值
reset方法:重置累加器中的值
copy方法:拷贝累加器
spark中累加器的执行流程:
首先有几个task,sparkengine就调用copy方法拷贝几个累加器(不注册的),然后在各个task中进行累加(注意在此过程中,被最初注册的累加器的值是不变的),执行最后将调用merge方法和各个task的结果累计器进行合并(此时被注册的累加器是初始值)
总结
以上就是本文关于Spark自定义累加器的使用实例详解的全部内容,希望对大家有所帮助。有什么问题可以随时留言,小编会及时回复大家的。