ELK日誌分析平臺搭建全過程

1、使用背景html

    當生產環境有不少服務器、不少業務模塊的日誌須要每時每刻查看時java

2、環境linux

系統:centos 6.5正則表達式

JDK:1.8redis

Elasticsearch-5.0.0vim

Logstash-5.0.0centos

kibana-5.0.0api

3、安裝瀏覽器

一、安裝JDK服務器

下載JDK:http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html

本環境下載的是64位tar.gz包,將安裝包拷貝至安裝服務器/usr/local目錄

[root@localhost ~]# cd /usr/local/ 
[root@localhost local]# tar -xzvf jdk-8u111-linux-x64.tar.gz

配置環境變量

[root@localhost local]# vim /etc/profile

將下面的內容添加至文件末尾(假如服務器須要多個JDK版本,爲了ELK不影響其它系統,也能夠將環境變量的內容稍後添加到ELK的啓動腳本中)

JAVA_HOME=/usr/local/jdk1.8.0_111
JRE_HOME=/usr/local/jdk1.8.0_111/jre
CLASSPATH=.:$JAVA_HOME/lib:/dt.jar:$JAVA_HOME/lib/tools.jar
PATH=$PATH:$JAVA_HOME/bin
export  JAVA_HOME
export  JRE_HOME

ulimit -u 4096

[root@localhost local]# source /etc/profile

配置limit相關參數

[root@localhost local]# vim /etc/security/limits.conf
添加如下內容

* soft nproc 65536
* hard nproc 65536
* soft nofile 65536
* hard nofile 65536

建立運行ELK的用戶

[root@localhost local]# groupadd elk

[root@localhost local]# useradd -g elk elk

建立ELK運行目錄

[root@localhost local]# mkdir /elk
[root@localhost local]# chown -R elk:elk /elk

關閉防火牆:

[root@localhost ~]# iptables -F

以上所有是root用戶完成

二、安裝ELK

如下由elk用戶操做

以elk用戶登陸服務器

下載ELK安裝包:https://www.elastic.co/downloads,並上傳到服務器且解壓,解壓命令:tar -xzvf 包名

配置Elasticsearch

修改以下內容:

保存退出

啓動Elasticsearch

查看是否啓動成功

用瀏覽器訪問:http://192.168.10.169:9200

Elasticsearch安裝完畢

安裝logstash

logstash是ELK中負責收集和過濾日誌的

編寫配置文件以下:

解釋:

logstash的配置文件須包含三個內容:

input{}:此模塊是負責收集日誌,能夠從文件讀取、從redis讀取或者開啓端口讓產生日誌的業務系統直接寫入到logstash

filter{}:此模塊是負責過濾收集到的日誌,並根據過濾後對日誌定義顯示字段

output{}:此模塊是負責將過濾後的日誌輸出到elasticsearch或者文件、redis等

本環境採用從文件讀取日誌,業務系統產生日誌的格式以下:

[2016-11-05 00:00:03,731  INFO] [http-nio-8094-exec-10] [filter.LogRequestFilter] - /merchant/get-supply-detail.shtml, IP: 121.35.185.117, [device-dpi = 414*736, version = 3.6, device-os = iOS8.4.1, timestamp = 1478275204, bundle = APYQ9WATKK98V2EC, device-network = WiFi, token = 393E38694471483CB3686EC77BABB496, device-model = iPhone, device-cpu = , sequence = 1478275204980, device-uuid = C52FF568-A447-4AFE-8AE8-4C9A54CED10C, sign = 0966a15c090fa6725d8e3a14e9ef98dc, request = {
  "supply-id" : 192
}]
[2016-11-05 00:00:03,731 DEBUG] [http-nio-8094-exec-10] [filter.ValidateRequestFilter] - Unsigned: bundle=APYQ9WATKK98V2EC&device-cpu=&device-dpi=414*736&device-model=iPhone&device-network=WiFi&device-os=iOS8.4.1&device-uuid=C52FF568-A447-4AFE-8AE8-4C9A54CED10C&request={
  "supply-id" : 192

output直接輸出到Elasticsearch

本環境需處理兩套業務系統的日誌

type:表明類型,其實就是將這個類型推送到Elasticsearch,方便後面的kibana進行分類搜索,通常直接命名業務系統的項目名

path:讀取文件的路徑

這個是表明日誌報錯時,將報錯的換行歸屬於上一條message內容

start_position => "beginning"是表明從文件頭部開始讀取

filter{}中的grok是採用正則表達式來過濾日誌,其中%{TIMESTAMP_ISO8601}表明一個內置獲取2016-11-05 00:00:03,731時間的正則表達式的函數,%{TIMESTAMP_ISO8601:date1}表明將獲取的值賦給date1,在kibana中能夠體現出來

本環境有兩條grok是表明,第一條不符合將執行第二條

其中index是定義將過濾後的日誌推送到Elasticsearch後存儲的名字

%{type}是調用input中的type變量(函數)

啓動logstash

表明啓動成功

安裝kibana

保存退出

啓動kibana

其中api-app-*和api-cxb-*從來的,*表明全部

表明實時收集的日誌條數

紅色框內的就是在剛纔filter過濾規則中定義的

相關文章
相關標籤/搜索