91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

怎么分析Linux日志

發布時間:2021-10-22 09:21:40 來源:億速云 閱讀:216 作者:小新 欄目:系統運維

這篇文章主要介紹了怎么分析Linux日志,具有一定借鑒價值,感興趣的朋友可以參考下,希望大家閱讀完這篇文章之后大有收獲,下面讓小編帶著大家一起了解一下。

日志中有大量的信息需要你處理,盡管有時候想要提取并非想象中的容易。在這篇文章中我們會介紹一些你現在就能做的基本日志分析例子(只需要搜索即可)。我們還將涉及一些更高級的分析,但這些需要你前期努力做出適當的設置,后期就能節省很多時間。對數據進行高級分析的例子包括生成匯總計數、對有效值進行過濾,等等。

我們首先會向你展示如何在命令行中使用多個不同的工具,然后展示了一個日志管理工具如何能自動完成大部分繁重工作從而使得日志分析變得簡單。

用 Grep 搜索

搜索文本是查找信息最基本的方式。搜索文本最常用的工具是 grep。這個命令行工具在大部分 Linux 發行版中都有,它允許你用正則表達式搜索日志。正則表達式是一種用特殊的語言寫的、能識別匹配文本的模式。最簡單的模式就是用引號把你想要查找的字符串括起來。

正則表達式

這是一個在 Ubuntu 系統的認證日志中查找 “user hoover” 的例子:

$ grep "user hoover" /var/log/auth.logAccepted password for hoover from 10.0.2.2 port 4792 ssh3pam_unix(sshd:session): session opened for user hoover by (uid=0)pam_unix(sshd:session): session closed for user hoover

構建精確的正則表達式可能很難。例如,如果我們想要搜索一個類似端口 “4792” 的數字,它可能也會匹配時間戳、URL 以及其它不需要的數據。Ubuntu 中下面的例子,它匹配了一個我們不想要的 Apache 日志。

$ grep "4792" /var/log/auth.logAccepted password for hoover from 10.0.2.2 port 4792 ssh374.91.21.46 - - [31/Mar/2015:19:44:32 +0000] "GET /scripts/samples/search?q=4972 HTTP/1.0" 404 545 "-" "-”
環繞搜索

另一個有用的小技巧是你可以用 grep 做環繞搜索。這會向你展示一個匹配前面或后面幾行是什么。它能幫助你調試導致錯誤或問題的東西。B 選項展示前面幾行,A 選項展示后面幾行。舉個例子,我們知道當一個人以管理員員身份登錄失敗時,同時他們的 IP 也沒有反向解析,也就意味著他們可能沒有有效的域名。這非常可疑!

$ grep -B 3 -A 2 'Invalid user' /var/log/auth.logApr 28 17:06:20 ip-172-31-11-241 sshd[12545]: reverse mapping checking getaddrinfo for 216-19-2-8.commspeed.net [216.19.2.8] failed - POSSIBLE BREAK-IN ATTEMPT!Apr 28 17:06:20 ip-172-31-11-241 sshd[12545]: Received disconnect from 216.19.2.8: 11: Bye Bye [preauth]Apr 28 17:06:20 ip-172-31-11-241 sshd[12547]: Invalid user admin from 216.19.2.8Apr 28 17:06:20 ip-172-31-11-241 sshd[12547]: input_userauth_request: invalid user admin [preauth]Apr 28 17:06:20 ip-172-31-11-241 sshd[12547]: Received disconnect from 216.19.2.8: 11: Bye Bye [preauth]
Tail

你也可以把 grep 和 tail 結合使用來獲取一個文件的最后幾行,或者跟蹤日志并實時打印。這在你做交互式更改的時候非常有用,例如啟動服務器或者測試代碼更改。

$ tail -f /var/log/auth.log | grep 'Invalid user'Apr 30 19:49:48 ip-172-31-11-241 sshd[6512]: Invalid user ubnt from 219.140.64.136Apr 30 19:49:49 ip-172-31-11-241 sshd[6514]: Invalid user admin from 219.140.64.136

關于 grep 和正則表達式的詳細介紹并不在本指南的范圍,但 Ryan’s Tutorials 有更深入的介紹。

日志管理系統有更高的性能和更強大的搜索能力。它們通常會索引數據并進行并行查詢,因此你可以很快的在幾秒內就能搜索 GB 或 TB 的日志。相比之下,grep 就需要幾分鐘,在極端情況下可能甚至幾小時。日志管理系統也使用類似 Lucene 的查詢語言,它提供更簡單的語法來檢索數字、域以及其它。

用 Cut、 AWK、 和 Grok 解析

命令行工具

Linux 提供了多個命令行工具用于文本解析和分析。當你想要快速解析少量數據時非常有用,但處理大量數據時可能需要很長時間。

Cut

cut 命令允許你從有分隔符的日志解析字段。分隔符是指能分開字段或鍵值對的等號或逗號等。

假設我們想從下面的日志中解析出用戶:

pam_unix(su:auth): authentication failure; logname=hoover uid=1000 euid=0 tty=/dev/pts/0 ruser=hoover rhost=  user=root

我們可以像下面這樣用 cut 命令獲取用等號分割后的第八個字段的文本。這是一個 Ubuntu 系統上的例子:

$ grep "authentication failure" /var/log/auth.log | cut -d '=' -f 8roothooverrootnagiosnagios
AWK

另外,你也可以使用 awk,它能提供更強大的解析字段功能。它提供了一個腳本語言,你可以過濾出幾乎任何不相干的東西。

例如,假設在 Ubuntu 系統中我們有下面的一行日志,我們想要提取登錄失敗的用戶名稱:

Mar 24 08:28:18 ip-172-31-11-241 sshd[32701]: input_userauth_request: invalid user guest [preauth]

你可以像下面這樣使用 awk 命令。首先,用一個正則表達式 /sshd.*invalid user/ 來匹配 sshd invalid user 行。然后用 { print $9 } 根據默認的分隔符空格打印第九個字段。這樣就輸出了用戶名。

$ awk '/sshd.*invalid user/ { print $9 }' /var/log/auth.logguestadmininfotestubnt

你可以在 Awk 用戶指南 中閱讀更多關于如何使用正則表達式和輸出字段的信息。

日志管理系統

日志管理系統使得解析變得更加簡單,使用戶能快速的分析很多的日志文件。他們能自動解析標準的日志格式,比如常見的 Linux 日志和 Web 服務器日志。這能節省很多時間,因為當處理系統問題的時候你不需要考慮自己寫解析邏輯。

下面是一個 sshd 日志消息的例子,解析出了每個 remoteHost 和 user。這是 Loggly 中的一張截圖,它是一個基于云的日志管理服務。

怎么分析Linux日志

你也可以對非標準格式自定義解析。一個常用的工具是 Grok,它用一個常見正則表達式庫,可以解析原始文本為結構化 JSON。下面是一個 Grok 在 Logstash 中解析內核日志文件的事例配置:

filter{  grok  {    match => {"message" => "%{CISCOTIMESTAMP:timestamp} %{HOST:host} %{WORD:program}%{NOTSPACE} %{NOTSPACE}%{NUMBER:duration}%{NOTSPACE} %{GREEDYDATA:kernel_logs}"  }}

下圖是 Grok 解析后輸出的結果:

怎么分析Linux日志

用 Rsyslog 和 AWK 過濾

過濾使得你能檢索一個特定的字段值而不是進行全文檢索。這使你的日志分析更加準確,因為它會忽略來自其它部分日志信息不需要的匹配。為了對一個字段值進行搜索,你首先需要解析日志或者至少有對事件結構進行檢索的方式。

如何對應用進行過濾

通常,你可能只想看一個應用的日志。如果你的應用把記錄都保存到一個文件中就會很容易。如果你需要在一個聚集或集中式日志中過濾一個應用就會比較復雜。下面有幾種方法來實現:

  1. 用 rsyslog 守護進程解析和過濾日志。下面的例子將 sshd 應用的日志寫入一個名為 sshd-message 的文件,然后丟棄事件以便它不會在其它地方重復出現。你可以將它添加到你的 rsyslog.conf 文件中測試這個例子。


    1. :programname, isequal, “sshd” /var/log/sshd-messages

    2. &~

  2. 用類似 awk 的命令行工具提取特定字段的值,例如 sshd 用戶名。下面是 Ubuntu 系統中的一個例子。


    1. $ awk '/sshd.*invalid user/ { print $9 }' /var/log/auth.log

    2. guest

    3. admin

    4. info

    5. test

    6. ubnt

  3. 用日志管理系統自動解析日志,然后在需要的應用名稱上點擊過濾。下面是在 Loggly 日志管理服務中提取 syslog 域的截圖。我們對應用名稱 “sshd” 進行過濾,如維恩圖圖標所示。

    怎么分析Linux日志

如何過濾錯誤

一個人最希望看到日志中的錯誤。不幸的是,默認的 syslog 配置不直接輸出錯誤的嚴重性,也就使得難以過濾它們。

這里有兩個解決該問題的方法。首先,你可以修改你的 rsyslog 配置,在日志文件中輸出錯誤的嚴重性,使得便于查看和檢索。在你的 rsyslog 配置中你可以用 pri-text 添加一個 模版,像下面這樣:

"<%pri-text%> : %timegenerated%,%HOSTNAME%,%syslogtag%,%msg%n"

這個例子會按照下面的格式輸出。你可以看到該信息中指示錯誤的 err。

<authpriv.err> : Mar 11 18:18:00,hoover-VirtualBox,su[5026]:, pam_authenticate: Authentication failure

你可以用 awk 或者 grep 檢索錯誤信息。在 Ubuntu 中,對這個例子,我們可以用一些語法特征,例如 . 和 >,它們只會匹配這個域。

$ grep '.err>' /var/log/auth.log<authpriv.err> : Mar 11 18:18:00,hoover-VirtualBox,su[5026]:, pam_authenticate: Authentication failure

你的第二個選擇是使用日志管理系統。好的日志管理系統能自動解析 syslog 消息并抽取錯誤域。它們也允許你用簡單的點擊過濾日志消息中的特定錯誤。

下面是 Loggly 中一個截圖,顯示了高亮錯誤嚴重性的 syslog 域,表示我們正在過濾錯誤:

怎么分析Linux日志

感謝你能夠認真閱讀完這篇文章,希望小編分享的“怎么分析Linux日志”這篇文章對大家有幫助,同時也希望大家多多支持億速云,關注億速云行業資訊頻道,更多相關知識等著你來學習!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

嵊泗县| 鲁山县| 松潘县| 齐齐哈尔市| 凉城县| 北宁市| 社会| 灵武市| 南阳市| 桃园市| 临颍县| 莱西市| 隆子县| 宁晋县| 松阳县| 长顺县| 辽阳县| 大丰市| 宣恩县| 奉化市| 榕江县| 乐平市| 芦山县| 垫江县| 西和县| 台州市| 化隆| 噶尔县| 浦江县| 闽清县| 正蓝旗| 巴马| 利川市| 繁峙县| 隆昌县| 阿拉善右旗| 镇雄县| 梨树县| 高州市| 阿合奇县| 台前县|