91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

spark-streaming-kafka怎樣通過KafkaUtils.createDirectStream的方式處理數據

發布時間:2021-12-15 16:12:04 來源:億速云 閱讀:378 作者:柒染 欄目:大數據

spark-streaming-kafka怎樣通過KafkaUtils.createDirectStream的方式處理數據,相信很多沒有經驗的人對此束手無策,為此本文總結了問題出現的原因和解決方法,通過這篇文章希望你能解決這個問題。

package hgs.spark.streaming
import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
import org.apache.spark.streaming.StreamingContext
import org.apache.spark.streaming.Seconds
import org.apache.spark.streaming.kafka.KafkaUtils
import org.apache.spark.streaming.kafka.KafkaCluster
import scala.collection.immutable.Map
import java.util.NoSuchElementException
import org.apache.spark.SparkException
import kafka.common.TopicAndPartition
import kafka.message.MessageAndMetadata
import org.codehaus.jackson.map.deser.std.PrimitiveArrayDeserializers.StringDeser
import kafka.serializer.StringDecoder
import org.apache.spark.streaming.kafka.DirectKafkaInputDStream
import org.apache.spark.rdd.RDD
import org.apache.spark.streaming.kafka.HasOffsetRanges
import org.apache.spark.HashPartitioner
object SparkStreamingKafkaDirectWordCount {
  def main(args: Array[String]): Unit = {
     val conf = new SparkConf().setAppName("KafkaWordCount").setMaster("local[5]")
     conf.set("spark.streaming.kafka.maxRatePerPartition", "1")
     val sc = new SparkContext(conf)
     val ssc = new StreamingContext(sc,Seconds(1)) 
     ssc.checkpoint("d:\\checkpoint")
     val kafkaParams = Map[String,String](
         "metadata.broker.list"->"bigdata01:9092,bigdata02:9092,bigdata03:9092",
         "group.id"->"group_hgs",
         "zookeeper.connect"->"bigdata01:2181,bigdata02:2181,bigdata03:2181")
     val kc = new KafkaCluster(kafkaParams)
     val topics = Set[String]("test")
     //每個rdd返回的數據是(K,V)類型的,該函數規定了函數返回數據的類型
     val mmdFunct = (mmd: MessageAndMetadata[String, String])=>(mmd.topic+" "+mmd.partition,mmd.message())
     
     val rds = KafkaUtils.createDirectStream[String,String,StringDecoder,StringDecoder,(String,String)](ssc, kafkaParams, getOffsets(topics,kc,kafkaParams),mmdFunct)
     val updateFunc=(iter:Iterator[(String,Seq[Int],Option[Int])])=>{
        //iter.flatMap(it=>Some(it._2.sum+it._3.getOrElse(0)).map((it._1,_)))//方式一
        //iter.flatMap{case(x,y,z)=>{Some(y.sum+z.getOrElse(0)).map((x,_))}}//方式二
        iter.flatMap(it=>Some(it._1,(it._2.sum.toInt+it._3.getOrElse(0))))//方式三
      }
     val words = rds.flatMap(x=>x._2.split(" ")).map((_,1))
     //val wordscount = words.map((_,1)).updateStateByKey(updateFunc, new HashPartitioner(sc.defaultMinPartitions), true)
     //println(getOffsets(topics,kc,kafkaParams))
     rds.foreachRDD(rdd=>{
       if(!rdd.isEmpty()){
         //對每個dataStreamoffset進行更新
         upateOffsets(topics,kc,rdd,kafkaParams)
       }
     }   
    )
     
     words.print()
     ssc.start()
     ssc.awaitTermination()
     
    
  }
  
  
  
  def getOffsets(topics : Set[String],kc:KafkaCluster,kafkaParams:Map[String,String]):Map[TopicAndPartition, Long]={
   
    val topicAndPartitionsOrNull =  kc.getPartitions(topics)
    if(topicAndPartitionsOrNull.isLeft){
      throw new SparkException(s"$topics in the set may not found")
    }
    else{
      val topicAndPartitions = topicAndPartitionsOrNull.right.get
      val groups = kafkaParams.get("group.id").get
      val offsetOrNull = kc.getConsumerOffsets(groups, topicAndPartitions)
      if(offsetOrNull.isLeft){
        println(s"$groups you assignment may not exists!now redirect to zero!")
        //如果沒有消費過,則從最開始的位置消費
        val erliestOffset = kc.getEarliestLeaderOffsets(topicAndPartitions)
        if(erliestOffset.isLeft)
          throw new SparkException(s"Topics and Partions not definded not found!")
        else
          erliestOffset.right.get.map(x=>(x._1,x._2.offset))
      }
      else{
        //如果消費組已經存在則從記錄的地方開始消費
        offsetOrNull.right.get
      }
    }
    
  }
  
  //每次拉取數據后存儲offset到ZK
  def upateOffsets(topics : Set[String],kc:KafkaCluster,directRDD:RDD[(String,String)],kafkaParams:Map[String,String]){
    val offsetRanges =  directRDD.asInstanceOf[HasOffsetRanges].offsetRanges
    for(offr <-offsetRanges){
      val topicAndPartitions = TopicAndPartition(offr.topic,offr.partition)
      val yesOrNo = kc.setConsumerOffsets(kafkaParams.get("group.id").get, Map(topicAndPartitions->offr.untilOffset))
      if(yesOrNo.isLeft){
        println(s"Error when update offset of $topicAndPartitions")
      }
    }
  }
  
  
 
}
/* val conf = new SparkConf().setAppName("KafkaWordCount").setMaster("local[2]")
     val sc = new SparkContext(conf)
     val ssc = new StreamingContext(sc,Seconds(4)) 
    val kafkaParams = Map[String,String](
         "metadata.broker.list"->"bigdata01:9092,bigdata02:9092,bigdata03:9092")
     val kc = new KafkaCluster(kafkaParams)
    
     //獲取topic與paritions的信息
     //val tmp = kc.getPartitions(Set[String]("test7"))
     //結果:topicAndPartitons=Set([test7,0], [test7,1], [test7,2])
     //val topicAndPartitons = tmp.right.get
     //println(topicAndPartitons)
    
    //每個分區對應的leader信息
    //val tmp = kc.getPartitions(Set[String]("test7"))
    //val topicAndPartitons = tmp.right.get
    //結果:leadersPerPartitions= Right(Map([test7,0] -> (bigdata03,9092), [test7,1] -> (bigdata01,9092), [test7,2] -> (bigdata02,9092)))
    //val leadersPerPartitions = kc.findLeaders(topicAndPartitons)
    //println(leadersPerPartitions)
    
    //每增加一條消息,對應的partition的offset都會加1,即LeaderOffset(bigdata02,9092,23576)第三個參數會加一
    //val tmp = kc.getPartitions(Set[String]("test"))
    //val topicAndPartitons = tmp.right.get
    //結果t=	Right(Map([test7,0] -> LeaderOffset(bigdata03,9092,23568), [test7,2] -> LeaderOffset(bigdata02,9092,23576), [test7,1] -> LeaderOffset(bigdata01,9092,23571)))
    //val  t = kc.getLatestLeaderOffsets(topicAndPartitons)
    // println(t)
    
    
    //findLeader需要兩個參數 topic 分區編號
    //val tmp = kc.findLeader("test7",0)
    //結果leader=RightProjection(Right((bigdata03,9092)))
    //val leader = tmp.right
    //val tp = leader.flatMap(x=>{Either.cond(false, None,(x._1,x._2))})  
    
    val tmp = kc.getPartitions(Set[String]("test"))
    val ttp = tmp.right.get
    
    
    while(true){
      try{
      val tp = kc.getConsumerOffsets("group_test1", ttp)
      val maps = tp.right.get
      println(maps)
      Thread.sleep(2000)
      }
      catch{
        case ex:NoSuchElementException=>{println("test")}
      }
        
    }*/

看完上述內容,你們掌握spark-streaming-kafka怎樣通過KafkaUtils.createDirectStream的方式處理數據的方法了嗎?如果還想學到更多技能或想了解更多相關內容,歡迎關注億速云行業資訊頻道,感謝各位的閱讀!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

鹤岗市| 怀仁县| 佳木斯市| 灵台县| 东乌| 三亚市| 鄯善县| 汉阴县| 江孜县| 中方县| 淮安市| 淅川县| 华宁县| 政和县| 宣汉县| 泊头市| 新泰市| 黎城县| 林州市| 商南县| 喀什市| 罗甸县| 陇川县| 陇南市| 临沧市| 绵竹市| 乐安县| 德安县| 东台市| 新营市| 西安市| 当阳市| 左权县| 龙里县| 高密市| 瓦房店市| 北宁市| 平凉市| 明溪县| 三河市| 陆川县|