您好,登錄后才能下訂單哦!
這期內容當中小編將會給大家帶來有關Spring Boot中怎么使用logback 記錄多個文件日志,文章內容豐富且以專業的角度為大家分析和敘述,閱讀完這篇文章希望大家可以有所收獲。
第一次實現
我有好幾個服務需要打日志. 一般來講我的日志風格是 *.log 保存 INFO以上級別日志. *.err.log保存ERROR以上級別日志. 我如果每個文件日志都使用一個Appender的話, 配置文件太長了. 而且很難看, 不是我的風格.
Google了一下, 發現了這種方案:
<?xml version="1.0" encoding="UTF-8"?> <configuration> # 下面這一行的意思是使用application.yml中的global.log-dir變量 <springProperty scope="context" name="LOG_DIR" source="global.log-dir" defaultValue="./log/"/> <!-- 追加器開始 --> # 這個是一個可以定義變量的Appender <appender name="SIFT" class="ch.qos.logback.classic.sift.SiftingAppender"> # 使用 LoggerNameBasedDiscriminator 這個類根據當前Logger獲取變量 <discriminator class="com.utils.loggers.LoggerNameBasedDiscriminator"> <defaultValue>general</defaultValue> </discriminator> <sift> # 根據變量loggerName名字生成根據日期滾動的Appender <appender name="FILE-${loggerName}" class="ch.qos.logback.core.rolling.RollingFileAppender"> <file> ${LOG_DIR}/${loggerName}.log </file> <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy"> <fileNamePattern> ${LOG_DIR}/${loggerName}.%d{yyyy-MM-dd}.log.gz </fileNamePattern> <maxHistory>15</maxHistory> </rollingPolicy> <filter class="ch.qos.logback.classic.filter.ThresholdFilter"> <level>INFO</level> </filter> <encoder> <pattern>%d{HH:mm:ss.SSS} %-5level - %msg%n </pattern> </encoder> </appender> <appender name="FILE-ERROR-${loggerName}" class="ch.qos.logback.core.rolling.RollingFileAppender"> <file>${LOG_DIR}/${loggerName}.err.log</file> <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy"> <fileNamePattern> ${LOG_DIR}/${loggerName}.%d{yyyy-MM-dd}.err.log.gz </fileNamePattern> <maxHistory>15</maxHistory> </rollingPolicy> <filter class="ch.qos.logback.classic.filter.ThresholdFilter"> <level>ERROR</level> </filter> <encoder> <pattern>%d{HH:mm:ss.SSS} %-5level - %msg%n </pattern> </encoder> </appender> </sift> </appender> <!-- 追加器結束 --> <!-- 日志開始 --> <logger name="com.some.service" level="INFO" additivity="false"> <appender-ref ref="SIFT"/> </logger> <!-- 日志結束 --> </configuration>
下的是對應的 LoggerNameBasedDiscriminator 類
package com.utils.loggers; import ch.qos.logback.classic.spi.ILoggingEvent; import ch.qos.logback.core.sift.AbstractDiscriminator; public class LoggerNameBasedDiscriminator extends AbstractDiscriminator<ILoggingEvent> { private static final String KEY = "loggerName"; private String defaultValue; public String getDefaultValue() { return defaultValue; } public void setDefaultValue(String defaultValue) { this.defaultValue = defaultValue; } # 這就是之所以xml里面可以引用loggerName變量的原因 public String getKey() { return KEY; } public void setKey() { throw new UnsupportedOperationException("Key not settable. Using " + KEY); } public String getDiscriminatingValue(ILoggingEvent e) { String loggerName = e.getLoggerName(); if (loggerName == null) return defaultValue; else { String[] split = loggerName.split("\\."); return split[split.length - 1]; } } }
最開始我的日志里面沒有報錯信息, 正常的生成INFO日志. 但是后來發現事情好像不是想象的那樣
問題出現
后來我把程序改成多線程. 發現所有涉及到多線程的服務日志里面都沒信息了. Google半天, 發現幾個令我震驚的真相:
真相1: 所有滾動Appender都不支持異步追加 (其實也不是, 但是那種方式需要寫死日志文件名, 不推薦, 不講)
真相2: SiftingAppender 內部最多嵌套一個Appender. 所以理論上我的ERROR的日志里面應該永遠不會有內容.
問題解決
對于之前的兩個問題, 分而治之.
不支持異步
再次谷歌(到這里讀者基本上發現了我搬磚的本質), 發現有個Appender名字叫AsyncAppender, 這玩意是一個其他Appender的Wrapper. 說白了, 就是你打日志的命令是異步的, 放到隊列里面, 而它真正的打日志的動作是一個單獨的同步線程. 這就牛逼了, 使用這玩意收集我所有日志, 然后再轉發給SiftingAppender 進行分發即可.
SiftingAppender 內部最多嵌套一個Appender
這個好辦, 把INFO的Appender和ERROR的Appender拆開放到兩個SiftingAppender里面就行了, 不過這樣的話, 前面提到的的AsyncAppender 也要寫兩個.
最后, logback-spring.xml文件如下
<?xml version="1.0" encoding="UTF-8"?> <configuration> <springProperty scope="context" name="LOG_DIR" source="global.log-dir" defaultValue="./log/"/> <!-- 追加器開始 --> <appender name="SIFT" class="ch.qos.logback.classic.sift.SiftingAppender"> <discriminator class="com.utils.loggers.LoggerNameBasedDiscriminator"> </discriminator> <sift> <appender name="FILE-${loggerName}" class="ch.qos.logback.core.rolling.RollingFileAppender"> <file>${LOG_DIR}/${loggerName}.log</file> <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy"> <fileNamePattern> ${LOG_DIR}/${loggerName}.%d{yyyy-MM-dd}.log </fileNamePattern> <maxHistory>15</maxHistory> </rollingPolicy> <filter class="ch.qos.logback.classic.filter.ThresholdFilter"> <level>INFO</level> </filter> <encoder> <pattern>%d{HH:mm:ss.SSS} %-5level - %msg%n </pattern> </encoder> </appender> </sift> </appender> <appender name="SIFT-ERR" class="ch.qos.logback.classic.sift.SiftingAppender"> <discriminator class="com.infervision.utils.loggers.LoggerNameBasedDiscriminator"> </discriminator> <sift> <appender name="FILE-ERROR-${loggerName}" class="ch.qos.logback.core.rolling.RollingFileAppender"> <file>${LOG_DIR}/${loggerName}.err.log</file> <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy"> <fileNamePattern> ${LOG_DIR}/${loggerName}.%d{yyyy-MM-dd}.err.log </fileNamePattern> <maxHistory>15</maxHistory> <totalSizeCap>50MB</totalSizeCap> </rollingPolicy> <filter class="ch.qos.logback.classic.filter.ThresholdFilter"> <level>ERROR</level> </filter> <encoder> <pattern>%d{HH:mm:ss.SSS} %-5level - %msg%n </pattern> </encoder> </appender> </sift> </appender> <!-- 異步輸出 --> <appender name ="ASYNC" class= "ch.qos.logback.classic.AsyncAppender"> <!-- 不丟失日志.默認的,如果隊列的80%已滿,則會丟棄TRACT、DEBUG、INFO級別的日志 --> <discardingThreshold >0</discardingThreshold> <!-- 更改默認的隊列的深度,該值會影響性能.默認值為256 --> <queueSize>512</queueSize> <!-- 添加附加的appender,最多只能添加一個 --> <appender-ref ref ="SIFT"/> </appender> <!-- 異步輸出 --> <appender name ="ASYNC-ERR" class= "ch.qos.logback.classic.AsyncAppender"> <!-- 不丟失日志.默認的,如果隊列的80%已滿,則會丟棄TRACT、DEBUG、INFO級別的日志 --> <discardingThreshold >0</discardingThreshold> <!-- 更改默認的隊列的深度,該值會影響性能.默認值為256 --> <queueSize>512</queueSize> <!-- 添加附加的appender,最多只能添加一個 --> <appender-ref ref ="SIFT-ERR"/> </appender> <!-- 追加器結束 --> <!-- 日志開始 --> <logger name="com.some.service" level="INFO" additivity="false"> <appender-ref ref="ASYNC"/> </logger> <!-- 日志結束 --> </configuration>
上述就是小編為大家分享的Spring Boot中怎么使用logback 記錄多個文件日志了,如果剛好有類似的疑惑,不妨參照上述分析進行理解。如果想知道更多相關知識,歡迎關注億速云行業資訊頻道。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。