Logstash:接收,處理,轉發日誌
Elasticsearch:文檔型數據庫,實時的分佈式搜索和分析引擎
Kibana:查詢、生成報表的web GUIweb
在安裝目錄bin文件夾裏新建一個logstash.conf
通常配置以下:正則表達式
# 輸入輸入 input { stdin {} } # 數據處理 filter { grok { match => ["message", "%{COMBINEDAPACHELOG}"] } } # 數據輸出 output { stdout { codec => rubydebug } }
配置文件語法相似Ruby數據庫
input: 數據的來源,通常是經過服務器+日誌路徑的方式
filter:以何種規則從字符串中提取出結構化的信息,grok是logstash裏的一款插件,能夠使用正則表達式匹配日誌,上文中的%{COMBINEDAPACHELOG}是內置的正則,用來匹配apache access日誌
默認正則:express
# Log formats SYSLOGBASE %{SYSLOGTIMESTAMP:timestamp} (?:%{SYSLOGFACILITY} )?%{SYSLOGHOST:logsource} %{SYSLOGPROG}: COMMONAPACHELOG %{IPORHOST:clientip} %{USER:ident} %{USER:auth} \[%{HTTPDATE:timestamp}\] "(?:%{WORD:verb} %{NOTSPACE:request}(?: HTTP/%{NUMBER:httpversion})?|%{DATA:rawrequest})" %{NUMBER:response} (?:%{NUMBER:bytes}|-) COMBINEDAPACHELOG %{COMMONAPACHELOG} %{QS:referrer} %{QS:agent} # Log Levels LOGLEVEL ([A-a]lert|ALERT|[T|t]race|TRACE|[D|d]ebug|DEBUG|[N|n]otice|NOTICE|[I|i]nfo|INFO|[W|w]arn?(?:ing)?|WARN?(?:ING)?|[E|e]rr?(?:or)?|ERR?(?:OR)?|[C|c]rit?(?:ical)?|CRIT?(?:ICAL)?|[F|f]atal|FATAL|[S|s]evere|SEVERE|EMERG(?:ENCY)?|[Ee]merg(?:ency)?)
output:配置保存解析結果apache
其中,重點講解filter中的配置,基本格式以下,plugin都是官方提供的,針對文本作處理,好比正則表達式啊(grok),按固定的格式作切分(kv)等等。選擇正確的plugin能夠更快速的幫助你解析日誌json
filter { plugin { XX => "YY" } if expression { plugin { XX => "YY" } } else if expression { plugin { XX => "YY" } } else { plugin { XX => "YY" } } plugin { XX => "YY" } }
一、grok:正則表達式插件,功能強大,有許多內置的pattern
二、mutate:字段的CRUD操做,好比替換內容,截取等等ruby
mutate { split=>{"error_request_info"=>",fromuid"} add_field=>{"error_uri"=>"%{error_request_info[0]}"} remove_field=>["error_request_info"] }
三、kv:key-value插件,很是適合URL參數解析一類的具備固定分隔符的日誌服務器
#好比解析URL的querystring: a=1&b=2&c=3 filter { kv { field_split => "&" } }
四、json:將json字符串直接轉換成對應的key-valueapp
#好比日誌爲:xxxxxxxxx:xxxxxx&result={"data":"1"}:xxxxxx filter { json { #假設數據經過grok預處理,將result內容捕獲 source => "result" } }
#經過json encode後 { "data": "1" }
五、drop:直接丟掉本行日誌,過濾不符合要求的日誌分佈式
if "/app/log/logfront" in [content] { # 特定的處理 drop {} }