91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Spark Streaming結合Flume和Kafka的日志分析是怎樣的

發布時間:2021-12-15 10:13:54 來源:億速云 閱讀:187 作者:柒染 欄目:云計算

今天就跟大家聊聊有關Spark Streaming結合Flume和Kafka的日志分析是怎樣的,可能很多人都不太了解,為了讓大家更加了解,小編給大家總結了以下內容,希望大家根據這篇文章可以有所收獲。

Spark Streaming結合Flume、Kafka的日志分析

1.修改相應的配置文件

按照 http://my.oschina.net/sunmin/blog/692994

整合安裝Flume+Kafka+SparkStreaming

將flume/conf/producer.conf將需要監控的日志輸出文件修改為本地的log 路徑:
/var/log/nginx/www.eric.aysaas.com-access.log

2.導入相關 jar 包

(快捷鍵 Ctrl + Alt + Shift + s),點擊Project Structure界面左側的“Modules”顯示下圖界面

Spark Streaming結合Flume和Kafka的日志分析是怎樣的

jar 包自己編譯,或者去載  http://search.maven.org/#search|ga|1|g%3A%22org.apache.spark%22%20AND%20v%3A%221.6.1%22

3.新建log/KafkaTest.scala 代碼如下

import kafka.serializer.StringDecoder
import org.apache.spark.SparkConf
import org.apache.spark.streaming.dstream.DStream
import org.apache.spark.streaming.{Seconds, StreamingContext}
import org.apache.spark.streaming.kafka.KafkaUtils

/**
  * flume+kafka+SparkStreaming 實時 nginx 日志獲取
  * Created by eric on 16/6/29.
  */
object KafkaLog {

  def main(agrs: Array[String]): Unit = {

    val sparkConf = new SparkConf().setMaster("local[1]").setAppName("StreamingTest")
    val ssc = new StreamingContext(sparkConf, Seconds(20))//代表一個給定的秒數的實例

    val topic = "HappyBirthDayToAnYuan"
    val topicSet = topic.split(" ").toSet

    //用 brokers and topics 創建 direct kafka stream
    val kafkaParams = Map[String, String]("metadata.broker.list" -> "localhost:9092")

    //直接從 kafka brokers 拉取信息,而不使用任何接收器.
    val messages = KafkaUtils.createDirectStream[String, String, StringDecoder, StringDecoder](
      ssc, kafkaParams, topicSet
    )
    val lines = messages.map(_._2)
    lines.print()
    val words: DStream[String] = lines.flatMap(_.split("\n"))
    words.count().print()

    //啟動
    ssc.start()
    ssc.awaitTermination()
  }
}

4.Test

訪問本地頁面產生日志 http://www.eric.aysaas.com/app/admin

在這20秒內總共產生的日志行數為:

Spark Streaming結合Flume和Kafka的日志分析是怎樣的

看完上述內容,你們對Spark Streaming結合Flume和Kafka的日志分析是怎樣的有進一步的了解嗎?如果還想了解更多知識或者相關內容,請關注億速云行業資訊頻道,感謝大家的支持。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

太和县| 佛学| 五河县| 高州市| 潼南县| 旬邑县| 华池县| 莱芜市| 葫芦岛市| 紫云| 上林县| 衡水市| 洛浦县| 池州市| 陆川县| 锡林郭勒盟| 盐城市| 富民县| 巴林右旗| 贵德县| 凤凰县| 巧家县| 石河子市| 沈丘县| 茶陵县| 宁南县| 尚义县| 介休市| 阿巴嘎旗| 瓦房店市| 绥中县| 革吉县| 天门市| 建德市| 专栏| 五家渠市| 汕尾市| 大安市| 班玛县| 屯留县| 应城市|