摘要:
1.日志输出到文件并根据LEVEL级别将日志分类保存到不同文件
2.通过异步输出日志减少磁盘IO提高性能
3.异步输出日志的原理
1、配置文件logback-spring.xml
SpringBoot
工程自带logback和slf4j
的依赖,所以重点放在编写配置文件上,需要引入什么依赖,日志依赖冲突统统都不需要我们管了。
logback
框架会默认加载classpath下命名为logback-spring.xml
或logback.xml
的配置文件。
如果将所有日志都存储在一个文件中,文件大小也随着应用的运行越来越大并且不好排查问题,正确的做法应该是将error日志和其他日志分开,并且不同级别的日志根据时间段进行记录存储。
配置文件:
<?xml version="1.0" encoding="UTF-8"?> <configuration debug="true"> <!-- 项目名称 --> <property name="PROJECT_NAME" value="project-api" /> <!--定义日志文件的存储地址 勿在 LogBack 的配置中使用相对路径--> <property name="LOG_HOME" value="logs" /> <!-- 控制台输出 --> <appender name="CONSOLE" class="ch.qos.logback.core.ConsoleAppender"> <withJansi>true</withJansi> <encoder class="ch.qos.logback.classic.encoder.PatternLayoutEncoder"> <!-- 格式化输出: %d: 日期; %-5level: 级别从左显示5个字符宽度; %thread: 线程名; %logger: 类名; %M: 方法名; %line: 行号; %msg: 日志消息; %n: 换行符 --> <pattern>[%d{yyyy-MM-dd HH:mm:ss.SSS}] [%-5level] [%thread] [%logger{50}] [%M] [%line] - %msg%n</pattern> <charset>UTF-8</charset> </encoder> </appender> <!-- ERROR日志文件,记录错误日志 --> <appender name="ERROR_FILE" class="ch.qos.logback.core.rolling.RollingFileAppender"> <file>${LOG_HOME}/${PROJECT_NAME}/error.log</file> <!-- 过滤器,只打印ERROR级别的日志 --> <filter class="ch.qos.logback.classic.filter.LevelFilter"> <level>ERROR</level> <onMatch>ACCEPT</onMatch> <onMismatch>DENY</onMismatch> </filter> <rollingPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedRollingPolicy"> <!--日志文件输出的文件名--> <FileNamePattern>${LOG_HOME}/${PROJECT_NAME}/%d{yyyy-MM-dd}/error.%i.zip</FileNamePattern> <!--日志文件保留天数--> <MaxHistory>3650</MaxHistory> <!--日志文件最大的大小--> <MaxFileSize>100MB</MaxFileSize> </rollingPolicy> <encoder class="ch.qos.logback.classic.encoder.PatternLayoutEncoder"> <!-- 格式化输出: %d: 日期; %-5level: 级别从左显示5个字符宽度; %thread: 线程名; %logger: 类名; %M: 方法名; %line: 行号; %msg: 日志消息; %n: 换行符 --> <pattern>[%d{yyyy-MM-dd HH:mm:ss.SSS}] [%-5level] [%thread] [%logger{50}] [%M] [%line] - %msg%n</pattern> <charset>UTF-8</charset> </encoder> </appender> <!-- INFO日志文件,用于记录重要日志信息 --> <appender name="INFO_FILE" class="ch.qos.logback.core.rolling.RollingFileAppender"> <file>${LOG_HOME}/${PROJECT_NAME}/info.log</file> <!-- 过滤器,只打印INFO级别的日志 --> <filter class="ch.qos.logback.classic.filter.LevelFilter"> <level>INFO</level> <onMatch>ACCEPT</onMatch> <onMismatch>DENY</onMismatch> </filter> <rollingPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedRollingPolicy"> <!--日志文件输出的文件名--> <FileNamePattern>${LOG_HOME}/${PROJECT_NAME}/%d{yyyy-MM-dd}/info.%i.zip</FileNamePattern> <!--日志文件保留天数--> <MaxHistory>3650</MaxHistory> <!--日志文件最大的大小--> <MaxFileSize>100MB</MaxFileSize> </rollingPolicy> <encoder class="ch.qos.logback.classic.encoder.PatternLayoutEncoder"> <!-- 格式化输出: %d: 日期; %-5level: 级别从左显示5个字符宽度; %thread: 线程名; %logger: 类名; %M: 方法名; %line: 行号; %msg: 日志消息; %n: 换行符 --> <pattern>[%d{yyyy-MM-dd HH:mm:ss.SSS}] [%-5level] [%thread] [%logger{50}] [%M] [%line] - %msg%n</pattern> <charset>UTF-8</charset> </encoder> </appender> <!-- 打印的SQL日志文件,用于执行的SQL语句和参数信息 --> <appender name="SQL_FILE" class="ch.qos.logback.core.rolling.RollingFileAppender"> <file>${LOG_HOME}/${PROJECT_NAME}/sql.log</file> <rollingPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedRollingPolicy"> <!--日志文件输出的文件名--> <FileNamePattern>${LOG_HOME}/${PROJECT_NAME}/%d{yyyy-MM-dd}/sql.%i.zip</FileNamePattern> <!--日志文件保留天数--> <MaxHistory>3650</MaxHistory> <!--日志文件最大的大小--> <MaxFileSize>100MB</MaxFileSize> </rollingPolicy> <encoder class="ch.qos.logback.classic.encoder.PatternLayoutEncoder"> <!-- 格式化输出: %d: 日期; %-5level: 级别从左显示5个字符宽度; %thread: 线程名; %logger: 类名; %M: 方法名; %line: 行号; %msg: 日志消息; %n: 换行符 --> <pattern>[%d{yyyy-MM-dd HH:mm:ss.SSS}] [%-5level] [%thread] [%logger{50}] [%M] [%line] - %msg%n</pattern> <charset>UTF-8</charset> </encoder> </appender> <!-- API请求被访问的日志文件,记录请求的URL和携带的参数 --> <appender name="REQUEST_FILE" class="ch.qos.logback.core.rolling.RollingFileAppender"> <file>${LOG_HOME}/${PROJECT_NAME}/request.log</file> <rollingPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedRollingPolicy"> <!--日志文件输出的文件名--> <FileNamePattern>${LOG_HOME}/${PROJECT_NAME}/%d{yyyy-MM-dd}/request.%i.zip</FileNamePattern> <!--日志文件保留天数--> <MaxHistory>3650</MaxHistory> <!--日志文件最大的大小--> <MaxFileSize>100MB</MaxFileSize> </rollingPolicy> <encoder class="ch.qos.logback.classic.encoder.PatternLayoutEncoder"> <!-- 格式化输出: %d: 日期; %-5level: 级别从左显示5个字符宽度; %thread: 线程名; %logger: 类名; %M: 方法名; %line: 行号; %msg: 日志消息; %n: 换行符 --> <pattern>[%d{yyyy-MM-dd HH:mm:ss.SSS}] [%-5level] [%thread] [%logger{50}] [%M] [%line]- %msg%n</pattern> <charset>UTF-8</charset> </encoder> </appender> <!-- 异步输出INFO_FILE --> <appender name="ASYNC_INFO_FILE" class="ch.qos.logback.classic.AsyncAppender"> <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 --> <queueSize>256</queueSize> <!-- 默认情况下,当阻塞队列的剩余容量为20%时,它将丢弃TRACE,DEBUG和INFO级别的事件,仅保留WARN和ERROR级别的事件。要保留所有事件,请将discardingThreshold设置为0。 --> <discardingThreshold>0</discardingThreshold> <!-- 添加附加的appender,使用前面定义的name,最多只能添加一个 --> <appender-ref ref="INFO_FILE"/> </appender> <!-- 异步输出ERROR_FILE --> <appender name="ASYNC_ERROR_FILE" class="ch.qos.logback.classic.AsyncAppender"> <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 --> <queueSize>256</queueSize> <!-- 默认情况下,当阻塞队列的剩余容量为20%时,它将丢弃TRACE,DEBUG和INFO级别的事件,仅保留WARN和ERROR级别的事件。要保留所有事件,请将discardingThreshold设置为0。 --> <discardingThreshold>0</discardingThreshold> <!-- 添加附加的appender,使用前面定义的name,最多只能添加一个 --> <appender-ref ref="ERROR_FILE"/> </appender> <!-- 异步输出SQL_FILE --> <appender name="ASYNC_SQL_FILE" class="ch.qos.logback.classic.AsyncAppender"> <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 --> <queueSize>256</queueSize> <!-- 默认情况下,当阻塞队列的剩余容量为20%时,它将丢弃TRACE,DEBUG和INFO级别的事件,仅保留WARN和ERROR级别的事件。要保留所有事件,请将discardingThreshold设置为0。 --> <discardingThreshold>0</discardingThreshold> <!-- 添加附加的appender,使用前面定义的name,最多只能添加一个 --> <appender-ref ref="SQL_FILE"/> </appender> <!-- 异步输出REQUEST_FILE --> <appender name="ASYNC_REQUEST_FILE" class="ch.qos.logback.classic.AsyncAppender"> <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 --> <queueSize>256</queueSize> <!-- 默认情况下,当阻塞队列的剩余容量为20%时,它将丢弃TRACE,DEBUG和INFO级别的事件,仅保留WARN和ERROR级别的事件。要保留所有事件,请将discardingThreshold设置为0。 --> <discardingThreshold>0</discardingThreshold> <!-- 添加附加的appender,使用前面定义的name,最多只能添加一个 --> <appender-ref ref="REQUEST_FILE"/> </appender> <!-- 输出error信息到文件--> <logger name="error" additivity="true"> <appender-ref ref="ERROR_FILE"/> </logger> <!-- 输出info信息到文件--> <logger name="info" additivity="true"> <appender-ref ref="INFO_FILE"/> </logger> <!-- 输出request信息到文件--> <logger name="request" level="INFO" additivity="false"> <appender-ref ref="REQUEST_FILE" /> </logger> <!-- 输出SQL到控制台和文件--> <logger name="org.hibernate.SQL" additivity="false"> <level value="DEBUG" /> <appender-ref ref="SQL_FILE" /> </logger> <!-- 输出SQL的参数到控制台和文件--> <logger name="org.hibernate.type.descriptor.sql.BasicBinder" additivity="false" level="TRACE"> <level value="TRACE" /> <appender-ref ref="SQL_FILE" /> </logger> <!-- 开发环境下的日志配置 --> <springProfile name="dev"> <root level="INFO"> <appender-ref ref="CONSOLE" /> <appender-ref ref="ERROR_FILE" /> <appender-ref ref="INFO_FILE" /> </root> </springProfile> <!-- 测试环境下的日志配置 --> <springProfile name="test"> <root level="INFO"> <appender-ref ref="CONSOLE" /> <appender-ref ref="ERROR_FILE" /> <appender-ref ref="INFO_FILE" /> </root> </springProfile> <!-- 生产环境下的日志配置 --> <springProfile name="prod"> <root level="INFO"> <appender-ref ref="CONSOLE" /> <appender-ref ref="ERROR_FILE" /> <appender-ref ref="INFO_FILE" /> </root> </springProfile> </configuration>
标签说明:
<root>标签,必填标签,用来指定最基础的日志输出级别
<appender-ref>标签,添加append
<append>标签,通过使用该标签指定日志的收集策略
<filter>标签,通过使用该标签指定过滤策略
<level>标签指定过滤的类型
<encoder>标签,使用该标签下的<pattern>标签指定日志输出格式
<rollingPolicy>标签指定收集策略,比如基于时间进行收集
<fileNamePattern>标签指定生成日志保存地址,通过这样配置已经实现了分类分日期收集日志的目标了
name属性指定appender命名
class属性指定输出策略,通常有两种,控制台输出和文件输出,文件输出就是将日志进行一个持久化
ConsoleAppender将日志输出到控制台
部分截图展示:
目录:
error.log
info.log
sql.log
request.log
2、logback 高级特性异步输出日志
如果不配置异步输出规则,那么默认日志配置方式是基于同步的,每次日志输出到文件都会进行一次磁盘IO。
采用异步写日志的方式而不让此次写日志发生磁盘IO,阻塞线程从而造成不必要的性能损耗。
异步输出日志的方式很简单,添加一个基于异步写日志的appender,并指向原先配置的appender
即可。
异步输出配置:
<!-- 异步输出INFO_FILE --> <appender name="ASYNC_INFO_FILE" class="ch.qos.logback.classic.AsyncAppender"> <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 --> <queueSize>256</queueSize> <!-- 默认情况下,当阻塞队列的剩余容量为20%时,它将丢弃TRACE,DEBUG和INFO级别的事件,仅保留WARN和ERROR级别的事件。要保留所有事件,请将discardingThreshold设置为0。 --> <discardingThreshold>0</discardingThreshold> <!-- 添加附加的appender,使用前面定义的name,最多只能添加一个 --> <appender-ref ref="INFO_FILE"/> </appender> <!-- 异步输出ERROR_FILE --> <appender name="ASYNC_ERROR_FILE" class="ch.qos.logback.classic.AsyncAppender"> <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 --> <queueSize>256</queueSize> <!-- 默认情况下,当阻塞队列的剩余容量为20%时,它将丢弃TRACE,DEBUG和INFO级别的事件,仅保留WARN和ERROR级别的事件。要保留所有事件,请将discardingThreshold设置为0。 --> <discardingThreshold>0</discardingThreshold> <!-- 添加附加的appender,使用前面定义的name,最多只能添加一个 --> <appender-ref ref="ERROR_FILE"/> </appender> <!-- 异步输出SQL_FILE --> <appender name="ASYNC_SQL_FILE" class="ch.qos.logback.classic.AsyncAppender"> <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 --> <queueSize>256</queueSize> <!-- 默认情况下,当阻塞队列的剩余容量为20%时,它将丢弃TRACE,DEBUG和INFO级别的事件,仅保留WARN和ERROR级别的事件。要保留所有事件,请将discardingThreshold设置为0。 --> <discardingThreshold>0</discardingThreshold> <!-- 添加附加的appender,使用前面定义的name,最多只能添加一个 --> <appender-ref ref="SQL_FILE"/> </appender> <!-- 异步输出REQUEST_FILE --> <appender name="ASYNC_REQUEST_FILE" class="ch.qos.logback.classic.AsyncAppender"> <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 --> <queueSize>256</queueSize> <!-- 默认情况下,当阻塞队列的剩余容量为20%时,它将丢弃TRACE,DEBUG和INFO级别的事件,仅保留WARN和ERROR级别的事件。要保留所有事件,请将discardingThreshold设置为0。 --> <discardingThreshold>0</discardingThreshold> <!-- 添加附加的appender,使用前面定义的name,最多只能添加一个 --> <appender-ref ref="REQUEST_FILE"/> </appender>
参数配置:
example:假设IO影响30s,日志和qps比例是1:1,单容器压测值1500 qps则可以推算出queue size的值,queueSize的设置公式:30 *1500=45000。
使用默认值20,或者设置大于0。
如果设置discardingThreshold=0,表示queue 满了,不丢弃,block线程。
官方文档链接:http://logback.qos.ch/manual/appenders.html
3、异步日志输出原理
异步输出日志中最关键的就是配置文件中ch.qos.logback.classic包下AsyncAppenderBase类中的append
方法,查看该方法的源码:
@Override protected void append(E eventObject) { if (isQueueBelowDiscardingThreshold() && isDiscardable(eventObject)) { return; } preprocess(eventObject); put(eventObject); }
通过队列情况判断是否需要丢弃日志,不丢弃的话将它放到阻塞队列中,通过查看代码,这个阻塞队列为queueSize,默认大小为256,可以通过配置文件进行修改。
/** * The default buffer size. */ public static final int DEFAULT_QUEUE_SIZE = 256; int queueSize = DEFAULT_QUEUE_SIZE;
Logger.info(...)到append(...)就结束了,只做了将日志塞入到阻塞队列的事,然后继续执行Logger.info(...)下面的语句了。在AsyncAppenderBase类中定义了一个Worker线程,run()方法中的代码如下:
class Worker extends Thread { public void run() { AsyncAppenderBase<E> parent = AsyncAppenderBase.this; AppenderAttachableImpl<E> aai = parent.aai; // loop while the parent is started while (parent.isStarted()) { try { E e = parent.blockingQueue.take(); aai.appendLoopOnAppenders(e); } catch (InterruptedException ie) { break; } } addInfo("Worker thread will flush remaining events before exiting. "); for (E e : parent.blockingQueue) { aai.appendLoopOnAppenders(e); parent.blockingQueue.remove(e); } aai.detachAndStopAllAppenders(); } }
从阻塞队列中取出一个日志,并调用AppenderAttachableImpl类中的appendLoopOnAppenders方法维护一个Append列表。
最主要的两个方法就是encode和write方法,前一个法方会根据配置文件中encode指定的方式转化为字节码,后一个方法将转化成的字节码写入到文件中去。
所以写文件是通过新起一个线程去完成的,主线程将日志放到阻塞队列中,然后又去执行其他任务。
到此这篇关于Logback配置文件这么写,还说你不会整理日志?的文章就介绍到这了,更多相关Logback配置文件内容请搜索易盾网络以前的文章或继续浏览下面的相关文章希望大家以后多多支持易盾网络!