91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

詳解如何使用Spark和Scala分析Apache訪問日志

發布時間:2020-09-10 03:57:47 來源:腳本之家 閱讀:272 作者:解道JDON 欄目:服務器

安裝

首先需要安裝好Java和Scala,然后下載Spark安裝,確保PATH 和JAVA_HOME 已經設置,然后需要使用Scala的SBT 構建Spark如下:

$ sbt/sbt assembly

構建時間比較長。構建完成后,通過運行下面命令確證安裝成功:

$ ./bin/spark-shell
scala> val textFile = sc.textFile("README.md") // 創建一個指向 README.md 引用
scala> textFile.count // 對這個文件內容行數進行計數
scala> textFile.first // 打印出第一行

Apache訪問日志分析器

首先我們需要使用Scala編寫一個對Apache訪問日志的分析器,所幸已經有人編寫完成,下載Apache logfile parser code。使用SBT進行編譯打包:

sbt compile
sbt test
sbt package

打包名稱假設為AlsApacheLogParser.jar。
然后在Linux命令行啟動Spark:

// this works
$ MASTER=local[4] SPARK_CLASSPATH=AlsApacheLogParser.jar ./bin/spark-shell

對于Spark 0.9,有些方式并不起效:

// does not work
$ MASTER=local[4] ADD_JARS=AlsApacheLogParser.jar ./bin/spark-shell
// does not work
spark> :cp AlsApacheLogParser.jar

上傳成功后,在Spark REPL創建AccessLogParser 實例:

import com.alvinalexander.accesslogparser._
val p = new AccessLogParser

現在就可以像之前讀取readme.cmd一樣讀取apache訪問日志accesslog.small:

scala> val log = sc.textFile("accesslog.small")
14/03/09 11:25:23 INFO MemoryStore: ensureFreeSpace(32856) called with curMem=0, maxMem=309225062
14/03/09 11:25:23 INFO MemoryStore: Block broadcast_0 stored as values to memory (estimated size 32.1 KB, free 294.9 MB)
log: org.apache.spark.rdd.RDD[String] = MappedRDD[1] at textFile at <console>:15
scala> log.count
(a lot of output here)
res0: Long = 100000

分析Apache日志

我們可以分析Apache日志中404有多少個,創建方法如下:

def getStatusCode(line: Option[AccessLogRecord]) = {
 line match {
  case Some(l) => l.httpStatusCode
  case None => "0"
 }
}

其中Option[AccessLogRecord]是分析器的返回值。

然后在Spark命令行使用如下:

log.filter(line => getStatusCode(p.parseRecord(line)) == "404").count

這個統計將返回httpStatusCode是404的行數。

深入挖掘

下面如果我們想知道哪些URL是有問題的,比如URL中有一個空格等導致404錯誤,顯然需要下面步驟:

  1. 過濾出所有 404 記錄
  2. 從每個404記錄得到request字段(分析器請求的URL字符串是否有空格等)
  3. 不要返回重復的記錄

創建下面方法:

// get the `request` field from an access log record
def getRequest(rawAccessLogString: String): Option[String] = {
 val accessLogRecordOption = p.parseRecord(rawAccessLogString)
 accessLogRecordOption match {
  case Some(rec) => Some(rec.request)
  case None => None
 }
}

將這些代碼貼入Spark REPL,再運行如下代碼:

log.filter(line => getStatusCode(p.parseRecord(line)) == "404").map(getRequest(_)).count
val recs = log.filter(line => getStatusCode(p.parseRecord(line)) == "404").map(getRequest(_))
val distinctRecs = log.filter(line => getStatusCode(p.parseRecord(line)) == "404").map(getRequest(_)).distinct
distinctRecs.foreach(println)

總結

對于訪問日志簡單分析當然是要grep比較好,但是更復雜的查詢就需要Spark了。很難判斷 Spark在單個系統上的性能。這是因為Spark是針對分布式系統大文件。

以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持億速云。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

内丘县| 湛江市| 荔浦县| 肃宁县| 高清| 探索| 勐海县| 商水县| 丰原市| 正镶白旗| 深泽县| 库车县| 定结县| 杨浦区| 灌云县| 天全县| 南京市| 成安县| 鄄城县| 洪泽县| 陕西省| 彰化市| 剑川县| 平南县| 西充县| 手机| 嘉峪关市| 宿松县| 罗山县| 阿勒泰市| 老河口市| 梨树县| 饶河县| 运城市| 南投市| 平谷区| 浦东新区| 康乐县| 景东| 安吉县| 古交市|