這篇文章主要講解了“如何配置Log日志”,文中的講解內容簡單清晰,易于學習與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學習“如何配置Log日志”吧!
1.Slf4j
Slf4j 的全稱是 Simple Loging Facade For Java,它僅僅是一個為 Java 程序提供日志輸出的統一接口,并不是一個具體的日志實現方案,就比如 JDBC 一樣,只是一種規則而已。
所以單獨的 Slf4j 是不能工作的,必須搭配其他具體的日志實現方案,比如:
Apache 的 org.apache.log4j.Logger。
JDK 自帶的 java.util.logging.Logger 等。
簡單語法
SLF4J 不及 Log4J 使用普遍,因為許多開發者熟悉 Log4J 而不知道 SLF4J,或不關注 SLF4J 而堅持使用 Log4J。
我們先看下 Log4J 示例:
Logger.debug("Hello " + name);
由于字符串拼接的問題,使用以上語句會先拼接字符串,再根據當前級別是否低于 Debug 決定是否輸出本條日志,即使不輸出日志,字符串拼接操作也會執行。
所以許多公司強制使用下面的語句,這樣只有當前處于 Debug 級別時才會執行字符串拼接:
if (logger.isDebugEnabled()) { LOGGER.debug(“Hello ” + name); }
它避免了字符串拼接問題,但有點太繁瑣了是不是?相對地,SLF4J 提供下面這樣簡單的語法:
LOGGER.debug("Hello {}", name);
它的形式類似第一條示例,而又沒有字符串拼接問題,也不像第二條那樣繁瑣。
日志等級 Level
Slf4j 有四個級別的 log level 可供選擇,級別從上到下由低到高,優先級高的將被打印出來:
Debug:簡單來說,對程序調試有利的信息都可以 debug 輸出。
info:對用戶有用的信息。
warn:可能會導致錯誤的信息。
error:顧名思義,發生錯誤的地方。
使用
因為是強制規約,所以直接使用 LoggerFactory 創建:
import org.slf4j.Logger; import org.slf4j.LoggerFactory; public class Test { private static final Logger logger = LoggerFactory.getLogger(Test.class); // …… }
配置方式
Spring Boot 對 Slf4j 支持的很好,內部已經集成了 Slf4j,一般我們在使用的時候,會對 Slf4j 做一下配置。
application.yml 文件是 Spring Boot 中唯一一個需要配置的文件,一開始創建工程的時候是 application.properties 文件,個人比較喜歡用 yml 文件,因為 yml 文件的層次感特別好,看起來更直觀。
但是 yml 文件對格式要求比較高,比如英文冒號后面必須要有個空格,否則項目估計無法啟動,而且也不報錯。用 properties 還是 yml 視個人習慣而定,都可以。
我們看一下 application.yml 文件中對日志的配置:
logging: config: classpath:logback.xml level: com.bowen.dao: trace
logging.config 是用來指定項目啟動的時候,讀取哪個配置文件,這里指定的是日志配置文件是 classpath:logback.xml 文件,關于日志的相關配置信息,都放在 logback.xml 文件中了。
logging.level 是用來指定具體的 mapper 中日志的輸出級別,上面的配置表示 com.bowen.dao 包下的所有 mapper 日志輸出級別為 trace,會將操作數據庫的 sql 打印出來。
開發時設置成 trace 方便定位問題,在生產環境上,將這個日志級別再設置成 error 級別即可。
常用的日志級別按照從高到低依次為:ERROR、WARN、INFO、DEBUG。
2.Log4j
Log4j 是 Apache 的一個開源項目,通過使用 Log4j,我們可以控制日志信息輸送的目的地是控制臺、文件、GUI 組件,甚至是套接口服務器、NT 的事件記錄器、UNIX Syslog 守護進程等。
我們也可以控制每一條日志的輸出格式;通過定義每條日志信息的級別,我們能夠更加細致地控制日志的生成過程。
組成架構
Log4j 由三個重要的組成構成:
Logger:控制要啟用或禁用哪些日志記錄語句,并對日志信息進行級別限制。
Appenders:指定了日志將打印到控制臺還是文件中。
Layout:控制日志信息的顯示格式。
Log4j 中將要輸出的 Log 信息定義了 5 種級別,依次為 DEBUG、INFO、WARN、ERROR 和 FATAL。
當輸出時,只有級別高過配置中規定的級別的信息才能真正的輸出,這樣就很方便的來配置不同情況下要輸出的內容,而不需要更改代碼。
日志等級 Level
Log4j 日志等級主要有以下幾種:
off:關閉日志,最高等級,任何日志都無法輸出。
fatal:災難性錯誤,在能夠輸出日志的所有等級中最高。
error:錯誤,一般用于異常信息。
warn:警告,一般用于不規范的引用等信息。
info:普通信息。
debug:調試信息,一般用于程序執行過程。
trace:堆棧信息,一般不使用。
all:打開所有日志,最低等級,所有日志都可使用。
在 Logger 核心類中, 除了 off/all 以外, 其他每個日志等級都對應一組重載的方法,用于記錄不同等級的日志。當且僅當方法對應的日志等級大于等于設置的日志等級時,日志才會被記錄。
使用
使用 Log4j 只需要導入一個 jar 包:
<dependency> <groupId>org.log4j</groupId> <artifactId>log4j</artifactId> <version>1.2.9</version> </dependency>e
配置方式
在 Resources Root 目錄下創建一個 log4j.properties 配置文件,一定要注意:文件的位置和文件名一個都不能錯,然后在 properties 文件中添加配置信息。
log4j.rootLogger=debug,cons log4j.appender.cons=org.apache.log4j.ConsoleAppender log4j.appender.cons.target=System.out log4j.appender.cons.layout=org.apache.log4j.PatternLayout log4j.appender.cons.layout.ConversionPattern=%m%n
propertis 文件是最常用的配置方式。實際開發過程中,基本都是使用properties 文件。
pripertis 配置文件的配置方式為:
# 配置日志等級, 指定生效的Appender名字, AppenderA是定義的Appender的名字 log4j.rootLogger=日志等級,AppenderA,AppenderB,... # ---------------- 定義一個appender------------------------ # 定義一個appender, appender名字可以是任意的, # 如果要使該appender生效, 須加入到上一行rootLogger中, 后面為對應的Appender類 log4j.appender.appender名字=org.apache.log4j.ConsoleAppender log4j.appender.appender名字.target=System.out # 定義Appender的布局方式 log4j.appender.appender名字.layout=org.apache.log4j.SimpleLayout
3.Logback
簡單地說,Logback 是一個 Java 領域的日志框架。它被認為是 Log4J 的繼承人。Logback 是 Log4j 的升級,所以 Logback 自然比 Log4j 有很多優秀的地方。
模塊組成
Logback 主要由三個模塊組成:
logback-core
logback-classic
logback-access
logback-core 是其它模塊的基礎設施,其它模塊基于它構建,顯然,logback-core 提供了一些關鍵的通用機制。
logback-classic 的地位和作用等同于 Log4J,它也被認為是 Log4J 的一個改進版,并且它實現了簡單日志門面 SLF4J。
logback-access 主要作為一個與 Servlet 容器交互的模塊,比如說 Tomcat 或者 Jetty,提供一些與 HTTP 訪問相關的功能。
三個模塊
Logback 組件
Logback 主要組件如下:
Logger:日志的記錄器;把他關聯到應用對應的 context 上;主要用于存放日志對象;可以自定義日志類型級別。
Appender:用于指定日志輸出的目的地;目的地可以是控制臺,文件,數據庫等。
Layout:負責把事件轉換成字符串;格式化的日志信息的輸出;在 logback 中 Layout 對象被封裝在 encoder 中。
Logback 優點
Logback 主要優點如下:
同樣的代碼路徑,Logback 執行更快。
更充分的測試。
原生實現了 SLF4J API(Log4J 還需要有一個中間轉換層)。
內容更豐富的文檔。
支持 XML 或者 Groovy 方式配置。
配置文件自動熱加載。
從 IO 錯誤中優雅恢復。
自動刪除日志歸檔。
自動壓縮日志成為歸檔文件。
支持 Prudent 模式,使多個 JVM 進程能記錄同一個日志文件。
支持配置文件中加入條件判斷來適應不同的環境。
更強大的過濾器。
支持 SiftingAppender(可篩選 Appender)。
異常棧信息帶有包信息。
標簽屬性
配置結構
Logback 主要標簽屬性如下:
configuration:配置的根節點。
scan:為 ture 時,若配置文件屬性改變會被掃描并重新加載,默認為 true。
scanPeriod:監測配置文件是否有修改的時間間隔,若沒給出時間單位,默認單位為毫秒;默認時間為 1 分鐘;當 scan="true"時生效。
debug:為 true 時,將打出 logback 的內部日志信息,實時查看 logback 運行狀態;默認值為 false。
contextName:上下文名稱,默認為“default”,使用此標簽可設置為其它名稱,用于區分不同應用程序的記錄;一旦設置不能修改。
appender:configuration 的子節點,負責寫日志的組件,有 name 和 class 兩個必要屬性。
name:addender 的名稱。
class:appender 的全限定名,就是對應的某個具體的 Appender 類名,比如 ConsoleAppender、FileAppender。
append:為 true 時,日志被追加到文件結尾,如果是 flase,清空現存的文件,默認值為 true。
配置方式
logback 框架會默認加載 classpath 下命名為 logback-spring 或 logback 的配置文件:
<?xml version="1.0" encoding="utf-8"?> <configuration> <property resource="logback.properties"/> <appender name="CONSOLE-LOG" class="ch.qos.logback.core.ConsoleAppender"> <layout class="ch.qos.logback.classic.PatternLayout"> <pattern>[%d{yyyy-MM-dd' 'HH:mm:ss.sss}] [%C] [%t] [%L] [%-5p] %m%n</pattern> </layout> </appender> <!--獲取比info級別高(包括info級別)但除error級別的日志--> <appender name="INFO-LOG" class="ch.qos.logback.core.rolling.RollingFileAppender"> <filter class="ch.qos.logback.classic.filter.LevelFilter"> <level>ERROR</level> <onMatch>DENY</onMatch> <onMismatch>ACCEPT</onMismatch> </filter> <encoder> <pattern>[%d{yyyy-MM-dd' 'HH:mm:ss.sss}] [%C] [%t] [%L] [%-5p] %m%n</pattern> </encoder> <!--滾動策略--> <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy"> <!--路徑--> <fileNamePattern>${LOG_INFO_HOME}//%d.log</fileNamePattern> <maxHistory>30</maxHistory> </rollingPolicy> </appender> <appender name="ERROR-LOG" class="ch.qos.logback.core.rolling.RollingFileAppender"> <filter class="ch.qos.logback.classic.filter.ThresholdFilter"> <level>ERROR</level> </filter> <encoder> <pattern>[%d{yyyy-MM-dd' 'HH:mm:ss.sss}] [%C] [%t] [%L] [%-5p] %m%n</pattern> </encoder> <!--滾動策略--> <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy"> <!--路徑--> <fileNamePattern>${LOG_ERROR_HOME}//%d.log</fileNamePattern> <maxHistory>30</maxHistory> </rollingPolicy> </appender> <root level="info"> <appender-ref ref="CONSOLE-LOG" /> <appender-ref ref="INFO-LOG" /> <appender-ref ref="ERROR-LOG" /> </root> </configuration>
4.ELK
ELK 是軟件集合 Elasticsearch、Logstash、Kibana 的簡稱,由這三個軟件及其相關的組件可以打造大規模日志實時處理系統。
新增了一個 FileBeat,它是一個輕量級的日志收集處理工具(Agent),Filebeat 占用資源少,適合于在各個服務器上搜集日志后傳輸給 Logstash,官方也推薦此工具。
架構圖
Elasticsearch:是一個基于 Lucene 的、支持全文索引的分布式存儲和索引引擎,主要負責將日志索引并存儲起來,方便業務方檢索查詢。
Logstash:是一個日志收集、過濾、轉發的中間件,主要負責將各條業務線的各類日志統一收集、過濾后,轉發給 Elasticsearch 進行下一步處理。
Kibana:是一個可視化工具,主要負責查詢 Elasticsearch 的數據并以可視化的方式展現給業務方,比如各類餅圖、直方圖、區域圖等。
Filebeat:隸屬于 Beats,是一個輕量級的日志收集處理工具。
目前 Beats 包含四種工具:Packetbeat(搜集網絡流量數據)、Topbeat(搜集系統、進程和文件系統級別的 CPU 和內存使用情況等數據)、Filebeat(搜集文件數據)、Winlogbeat(搜集 Windows 事件日志數據)。
主要特點
一個完整的集中式日志系統,需要包含以下幾個主要特點:
收集:能夠采集多種來源的日志數據。
傳輸:能夠穩定的把日志數據傳輸到中央系統。
存儲:如何存儲日志數據。
分析:可以支持 UI 分析。
警告:能夠提供錯誤報告,監控機制。
ELK提供了一整套解決方案,并且都是開源軟件,之間互相配合使用,完美銜接,高效的滿足了很多場合的應用。目前主流的一種日志系統。
應用場景
在海量日志系統的運維中,以下幾個方面是必不可少的:
分布式日志數據集中式查詢和管理。
系統監控,包含系統硬件和應用各個組件的監控。
故障排查。
安全信息和事件管理。
報表功能。
ELK 運行于分布式系統之上,通過搜集、過濾、傳輸、儲存,對海量系統和組件日志進行集中管理和準實時搜索、分析,使用搜索、監控、事件消息和報表等簡單易用的功能。
幫助運維人員進行線上業務的準實時監控、業務異常時及時定位原因、排除故障、程序研發時跟蹤分析 Bug、業務趨勢分析、安全與合規審計,深度挖掘日志的大數據價值。
同時 Elasticsearch 提供多種 API(REST JAVA PYTHON 等 API)供用戶擴展開發,以滿足其不同需求。
配置方式
filebeat 的配置,打開 filebeat.yml,進行配置,如下:
#輸入源,可以寫多個 filebeat.input: - type: log enabled: true #輸入源文件地址 path: - /data/logs/tomcat/*.log #多行正則匹配,匹配規則 例:2020-09-29,不是這樣的就與上一條信息合并 multiline: pattern: '\s*\[' negate: true match: after #起個名字 tags: ["tomcat"] #輸出目標,可以把logstash改成es output.logstash: hosts: [172.29.12.35:5044]
logstash 的配置,建一個以 .conf 為后綴的文件,或者打開 config 文件夾下的 .conf 文件,這里的配置文件是可以同時啟動多個的,而且還有一個功能強大的 filter 功能,可以過濾原始數據,如下:
#輸入源(必須) input { #控制臺鍵入 stdin {} #文件讀取 file { #類似賦予的名字 type => "info" #文件路徑,可以用*代表所有 path => ['/usr/local/logstash-7.9.1/config/data-my.log'] #第一次從頭開始讀,下一次繼續上一次的位置繼續讀 start_position => "beginning" } file { type => "error" path => ['/usr/local/logstash-7.9.1/config/data-my2.log'] start_position => "beginning" codec=>multiline{ pattern => "\s*\[" negate => true what => "previous" } } #與filebates配合使用 beats{ port => 5044 } } #輸出目標(必須) output { #判斷type是否相同 if [type] == "error"{ #如果是,就寫入此es中 elasticsearch{ hosts => "172.29.12.35:9200" #kibana通過index的名字進行查詢,這里的YYYY是動態獲取日期 index => "log-error-%{+YYYY.MM.dd}" } } if [type] == "info"{ elasticsearch{ hosts => "172.29.12.35:9200" #kibana通過index的名字進行查詢 index => "log-info-%{+YYYY.MM.dd}" } } #這里判斷的是filebates中賦予的tags是否是tomcat if "tomcat" in [tags]{ elasticsearch{ hosts => "172.29.12.35:9200" #kibana通過index的名字進行查詢 index => "tomcat" } } #控制臺也會打印信息 stdout { codec => rubydebug {} } }
感謝各位的閱讀,以上就是“如何配置Log日志”的內容了,經過本文的學習后,相信大家對如何配置Log日志這一問題有了更深刻的體會,具體使用情況還需要大家實踐驗證。這里是億速云,小編將為大家推送更多相關知識點的文章,歡迎關注!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。