溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

(版本定制)第14課:Spark Streaming源碼解讀之State管理之updateStateByKey和mapWithState解密

發布時間:2020-07-30 02:32:05 來源:網絡 閱讀:414 作者:Spark_2016 欄目:大數據

本期內容:

    1、updateStateByKey解密

    2、mapWithState解密

背景:
整個Spark Streaming是按照Batch Duractions劃分Job的。但是很多時候我們需要算過去的一天甚至一周的數據,這個時候不可避免的要進行狀態管理,而Spark Streaming每個Batch Duractions都會產生一個Job,Job里面都是RDD,

所以此時面臨的問題就是怎么對狀態進行維護?這個時候就需要借助updateStateByKey和mapWithState方法完成核心的步驟。


1、簡單看下updateStateByKey源碼:

     在DStream中updateStateByKey和mapWithState是通過隱式轉換來完成,本身沒有這樣的方法。

implicit def toPairDStreamFunctions[K, V](stream: DStream[(K, V)])
    (implicit kt: ClassTag[K], vt: ClassTag[V], ord: Ordering[K] = null):
  PairDStreamFunctions[K, V] = {
new PairDStreamFunctions[K, V](stream)
}
[: ClassTag](
    updateFunc: ([]Option[]) => Option[]
  ): DStream[()] = ssc.withScope {
  updateStateByKey(updateFuncdefaultPartitioner())
}

最終會通過StateDStream中的computeUsingPreviousRDD和compute來完成這樣的功能,簡單的流程圖如下:

(版本定制)第14課:Spark Streaming源碼解讀之State管理之updateStateByKey和mapWithState解密

2、簡單看下mapWithState源碼

mapWithState是返回MapWithStateDStream對象,維護和更新歷史狀態都是基于Key,使用一個function對key-value形式的數據進行狀態維護

[: ClassTag: ClassTag](
    spec: StateSpec[]
  ): MapWithStateDStream[] = {
MapWithStateDStreamImpl[](
    selfspec.asInstanceOf[StateSpecImpl[]]
  )
}

通過InternalMapWithStateDStream類中的compute來完成,簡單的流程圖如下:

(版本定制)第14課:Spark Streaming源碼解讀之State管理之updateStateByKey和mapWithState解密

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

亚洲午夜精品一区二区_中文无码日韩欧免_久久香蕉精品视频_欧美主播一区二区三区美女