您好,登錄后才能下訂單哦!
本文小編為大家詳細介紹“Logtail在日志處理階段的兩個新功能是什么”,內容詳細,步驟清晰,細節處理妥當,希望這篇“Logtail在日志處理階段的兩個新功能是什么”文章能幫助大家解決疑惑,下面跟著小編的思路慢慢深入,一起來學習新知識吧。
對于日志收集的客戶端,其work pipeline通常包括三個過程:Input,Process,Output。
Input: 適配各類日志接入源,目前Logtail支持文本文件、Syslog(TCP流式)兩種形式數據寫入。
Process:自定義日志處理邏輯,常見的有:日志切分、日志編碼轉換、日志結構化解析、日志過濾等等。
Output:定義日志輸出,例如Logtail以HTTP協議寫數據到日志服務。
日志服務限制數據的字符編碼為UTF-8,這也是Logtail在發送數據階段對于字符編碼的要求。
但可能一些較老的應用組件在處理中文的時候,會打印GBK編碼的數據到日志文件。
這種情況下,你可以在Logtail配置的高級選項中,選擇日志文件編碼為”GBK“。那么,Logtail在采集日志時,會對日志內容先做GBK到UTF-8的編碼轉換,再進行后續處理。
Logtail目前支可以支持UTF-8和GBK兩種文件編碼格式。對于GBK格式,Logtail使用Linux系統的iconv API,編碼轉換過程中會額外消耗機器計算資源。
問:如何判斷我的GBK日志文件是否可以通過Logtail收集?
答:在Linux Shell下使用iconv命令進行轉碼測試,假設日志文件名為gbk.log,執行命令:
iconv -f GBK -t UTF-8 gbk.log -o gbk_to_utf8.log
如果執行成功則說明文件編碼是GBK;如執行失敗(類似iconv: illegal input sequence at position 2743錯誤),則說明文件不是合法的GBK編碼,無法通過Logtail做編碼轉換,請嘗試調整應用輸出的日志文件編碼格式為UTF-8。
舉一個web服務器的例子,Nginx每時每刻接收大量請求,并在access.log記錄這些請求:
10.200.98.220 - - [25/May/2016:14:55:42 +0800] "HEAD sls-pub.alibaba-inc.com/projects/ali-cn-hangzhou-sls-admin/logstores HTTP/1.1" 0.024 18204 200 37 "-" "aliyun-sdk-java" 13605 10.200.98.220 - - [25/May/2016:14:55:42 +0800] "POST sls-pub.alibaba-inc.com/projects/ali-cn-hangzhou-sls-admin/logstores HTTP/1.1" 0.024 18204 404 37 "-" "ali-log-logtail" 13608 10.200.98.220 - - [25/May/2016:14:55:42 +0800] "PUT sls-pub.alibaba-inc.com/projects/ali-cn-hangzhou-sls-admin/logstores HTTP/1.1" 0.024 18204 401 37 "-" "aliyun-sdk-java" 13609 10.200.98.220 - - [25/May/2016:14:55:42 +0800] "PUT sls-pub.alibaba-inc.com/projects/ali-cn-hangzhou-sls-admin/logstores HTTP/1.1" 0.024 18204 502 37 "-" "aliyun-sdk-java" 13610 10.200.98.220 - - [25/May/2016:14:55:42 +0800] "GET sls-pub.alibaba-inc.com/projects/ali-cn-hangzhou-sls-admin/logstores HTTP/1.1" 0.024 18204 401 37 "-" "cpp-sdk-0.6" 13612 10.200.98.220 - - [25/May/2016:14:55:42 +0800] "PUT sls-pub.alibaba-inc.com/projects/ali-cn-hangzhou-sls-admin/logstores HTTP/1.1" 0.024 18204 400 37 "-" "cpp-sdk-0.6" 13614 10.200.98.220 - - [25/May/2016:14:55:42 +0800] "POST sls-pub.alibaba-inc.com/projects/ali-cn-hangzhou-sls-admin/logstores HTTP/1.1" 0.024 18204 400 37 "-" "ali-log-logtail" 13615 10.200.98.220 - - [25/May/2016:14:55:42 +0800] "HEAD sls-pub.alibaba-inc.com/projects/ali-cn-hangzhou-sls-admin/logstores HTTP/1.1" 0.024 18204 200 37 "-" "cpp-sdk-0.6" 13616
對于問題調查的場景,HTTP 200請求的日志量通常是巨大的,如果我們希望降低日志存儲的成本,只上傳發生異常的請求日志,應該怎么來做呢?
在今天,你可以打開Logtail配置的高級選項,設置過濾器來解決數據過濾的問題。
如上圖所示,分別對url字段和status字段設置了兩個過濾器。指定字段Key存在且Value符合正則表達式的日志會被保留。
定義多個過濾器的時候,判斷條件是“與”的關系,滿足所有過濾器設置的日志是合法的,否則被丟棄。
對于一條日志,當url字段與"(POSTs.)|(GETs.)"匹配成功且status字段與"[345]d+"匹配成功的時候(只采集POST、GET請求且狀態碼非200的日志),Logtail將該日志上傳至日志服務,如下圖所示:
如果設置過濾器的字段名在日志里找不到,那么這條日志也是不合法的,需要被丟棄。默認情況下,用戶沒有任何過濾器設置的情況下,所有被Logtail讀取并解析成功的日志數據都會寫入日志服務。
實例配置:
只收集匹配到 topic 為 action 或者 plugin 的日志
讀到這里,這篇“Logtail在日志處理階段的兩個新功能是什么”文章已經介紹完畢,想要掌握這篇文章的知識點還需要大家自己動手實踐使用過才能領會,如果想了解更多相關內容的文章,歡迎關注億速云行業資訊頻道。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。