91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

怎么實現SparkStreaming轉化操作

發布時間:2021-12-17 10:47:48 來源:億速云 閱讀:187 作者:柒染 欄目:大數據

怎么實現SparkStreaming轉化操作,相信很多沒有經驗的人對此束手無策,為此本文總結了問題出現的原因和解決方法,通過這篇文章希望你能解決這個問題。

DStream的轉化操作分為無狀態有狀態 兩種

  • 在無狀態轉化操作中,每個批次的處理不依賴于之前批次的數據。

  • 有狀態轉化操作需要使用之前批次的數據或者中間結果來計算當前批次的數據,有狀態轉化操作包括基于滑動窗口的轉化操作和追蹤狀態變化的轉換操作。

無狀態轉化


無狀態轉化操作的實質就說把簡單的RDD轉化操作應用到每個批次上,也就是轉化DStream的每一個RDD

Transform算子

Transform 允許 DStream 上執行任意的 RDD-to-RDD 函數。即使這些函數并沒有在 DStream 的 API 中暴露出來,通過該函數可以方便的擴展 Spark API。該函數每一批次調度一次。其實也 就是對 DStream 中的 RDD 應用轉換。

def main(args: Array[String]): Unit = {
    val conf: SparkConf = new SparkConf().setAppName("transform").setMaster("local[*]")
    val sc: StreamingContext = new StreamingContext(conf, Seconds(3))
    val lines = sc.socketTextStream("localhost", 9999)

    // transform方法可以將底層RDD獲取到后進行操作
    // 1. DStream功能不完善
    // 2. 需要代碼周期性的執行

    // Code : Driver端
    val newDS: DStream[String] = lines.transform(
      rdd => {
        // Code : Driver端,(周期性執行)
        rdd.map(
          str => {
            // Code : Executor端
            str
          }
        )
      }
    )
    // Code : Driver端
    val newDS1: DStream[String] = lines.map(
      data => {
        // Code : Executor端
        data
      }
    )
    sc.start()
    sc.awaitTermination()
  }

join算子

兩個流之間的 join 需要兩個流的批次大小一致,這樣才能做到同時觸發計算。計算過程就是對當前批次的兩個流中各自的 RDD 進行 join,與兩個 RDD 的 join 效果相同。

def main(args: Array[String]): Unit = {

    val sparkConf = new SparkConf().setMaster("local[*]").setAppName("SparkStreaming")
    val ssc = new StreamingContext(sparkConf, Seconds(5))

    val data9999 = ssc.socketTextStream("localhost", 9999)
    val data8888 = ssc.socketTextStream("localhost", 8888)

    val map9999: DStream[(String, Int)] = data9999.map((_,9))
    val map8888: DStream[(String, Int)] = data8888.map((_,8))

    // 所謂的DStream的Join操作,其實就是兩個RDD的join
    val joinDS: DStream[(String, (Int, Int))] = map9999.join(map8888)

    joinDS.print()

    ssc.start()
    ssc.awaitTermination()
}

有狀態轉化


有狀態轉化操作是跨時間區間跟蹤數據的操作,也就是說,一些先前批次的數據也被用來在新的批次中用于計算結果。有狀態轉換的主要的兩種類型:

  • 滑動窗口:以一個時間階段為滑動窗口進行操作

  • updateStateByKey():通過key值來跟蹤數據的狀態變化

有狀態轉化操作需要在StreamingContext中打開檢查點機制來提高容錯

updateStateByKey

  def main(args: Array[String]): Unit = {
    val conf: SparkConf = new SparkConf().setMaster("local[*]").setAppName("updateStateByKey")
    val sc: StreamingContext = new StreamingContext(conf, Seconds(4))
    sc.checkpoint("cp")
    val ds: ReceiverInputDStream[String] = sc.socketTextStream("localhost", 9999)

    val value: DStream[(String, Int)] = ds.map(((_: String), 1))


    // updateStateByKey:根據key對數據的狀態進行更新
    // 傳遞的參數中含有兩個值
    // 第一個值表示相同的key的value數據的集合
    // 第二個值表示緩存區key對應的計算值
    val state: DStream[(String, Int)] = value.updateStateByKey((seq: Seq[Int], option: Option[Int]) => {
      val newCount: Int = option.getOrElse(0) + seq.sum
      Option(newCount)
    })

    state.print()

    sc.start()
    sc.awaitTermination()

  }

窗口

所有基于窗口的函數都需要兩個參數,分別對應窗口時長滑動步長,并且兩者都必須是SparkStreaming的批次間隔的整數倍。
窗口時長控制的是每次用來計算的批次的個數
滑動步長用于控制對新的DStream進行計算的間隔

怎么實現SparkStreaming轉化操作

window操作

基于window進行窗口內元素計數操作

def main(args: Array[String]): Unit = {

    val sparkConf = new SparkConf().setMaster("local[*]").setAppName("SparkStreaming")
    val ssc = new StreamingContext(sparkConf, Seconds(3))

    val lines = ssc.socketTextStream("localhost", 9999)
    val wordToOne = lines.map((_,1))

    val windowDS: DStream[(String, Int)] = wordToOne.window(Seconds(6), Seconds(6))

    val wordToCount = windowDS.reduceByKey(_+_)

    wordToCount.print()

    ssc.start()
    ssc.awaitTermination()
  }
reduce操作

有逆操作規約是一種更高效的規約操作,通過只考慮新進入窗口的元素和離開窗口的元素,讓spark增量計算歸約的結果,其在代碼上的體現就是reduceFuncinvReduceFunc

怎么實現SparkStreaming轉化操作

普通歸約操作

  def main(args: Array[String]): Unit = {
    val sparkConf = new SparkConf().setMaster("local[*]").setAppName("SparkStreaming")
    val ssc = new StreamingContext(sparkConf, Seconds(3))
    ssc.checkpoint("cp")

    val lines = ssc.socketTextStream("localhost", 9999)

    lines.reduceByWindow(
      (x: String, y: String) => {
        x + "-" + y
      },
      Seconds(9), Seconds(3)
    ).print()

    ssc.start()
    ssc.awaitTermination()
  }

有逆歸約操作

  def main(args: Array[String]): Unit = {

    val sparkConf = new SparkConf().setMaster("local[*]").setAppName("SparkStreaming")
    val ssc = new StreamingContext(sparkConf, Seconds(3))
    ssc.checkpoint("cp")

    val lines = ssc.socketTextStream("localhost", 9999)
    val wordToOne = lines.map((_,1))

    /**
     * 基于窗口進行有逆歸約:通過控制窗口流出和進入的元素來提高性能
     */
    val windowDS: DStream[(String, Int)] =
    wordToOne.reduceByKeyAndWindow(
      (x:Int, y:Int) => { x + y},
      (x:Int, y:Int) => {x - y},
      Seconds(9), Seconds(3))

    windowDS.print()

    ssc.start()
    ssc.awaitTermination()
  }
count操作
  def main(args: Array[String]): Unit = {

    val sparkConf = new SparkConf().setMaster("local[*]").setAppName("SparkStreaming")
    val ssc = new StreamingContext(sparkConf, Seconds(3))
    ssc.checkpoint("cp")

    val lines = ssc.socketTextStream("localhost", 9999)

    /**
     * 統計窗口中輸入數據的個數
     * 比如 3s內輸入了10條數據,則打印10
     */
    val countByWindow: DStream[Long] = lines.countByWindow(
      Seconds(9), Seconds(3)
    )
    countByWindow.print()

    /**
     * 統計窗口中每個值的個數
     * 比如 3s內輸入了1個3 2個4 3個5,則打印(3,1)(2,4)(3,5)
     */
    val countByValueAndWindow: DStream[(String, Long)] = lines.countByValueAndWindow(
      Seconds(9), Seconds(3)
    )
    countByValueAndWindow.print()

    ssc.start()
    ssc.awaitTermination()
  }

看完上述內容,你們掌握怎么實現SparkStreaming轉化操作的方法了嗎?如果還想學到更多技能或想了解更多相關內容,歡迎關注億速云行業資訊頻道,感謝各位的閱讀!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

奉新县| 井陉县| 连城县| 鹤庆县| 西藏| 长白| 临桂县| 高安市| 高陵县| 万山特区| 象州县| 罗源县| 成安县| 柳江县| 尼玛县| 迭部县| 漳州市| 白河县| 民权县| 德昌县| 吴忠市| 茌平县| 怀来县| 凯里市| 宣威市| 蒲城县| 沙湾县| 尼玛县| 浮梁县| 遂平县| 夏津县| 塘沽区| 韩城市| 莫力| 扎鲁特旗| 罗定市| 孟州市| 成安县| 平江县| 新泰市| 仁怀市|