基於ELK的日誌分析、存儲、展現

ELK簡介

ELK是一套完整的日誌解決方案,由ElasticSearch、Logstash、 Kibana
這三款開源軟件組成。java

  • EastiSearch是基於Lucene開發的分佈式存儲檢引擎,用來存儲各種日誌;
  • Logstash對日誌進行收集、分析,並將其存儲供之後使用:
  • Kibana 是基於Node.js開發的展現工具,爲Logstah和ElasticSearch提供用於日誌展現的Web界面,還用於幫助彙總、分析和搜索重要日誌數據。

ELK官網https://www.elastic.co/products 分別提供包進行下載安裝。node

ELK工做原理

  • 在全部須要收集日誌的服務上部署Logstash,做爲署Logstash agent用於監控並過濾所收集的日誌,將過濾後的內容整合在一塊兒,最終所有交給EastiSearch檢索引擎;
  • 用EastiSearch進行自定義檢索;
  • 再經過Kibana經過結合自定義檢索內容生成圖表,進行日誌數據展現。

部署ElasticSearch

1.安裝ElasticSearch

rpm --import https://packages.elastic.co/GPG-KEY-elasticsearch

vim elasticsearch.repo        #配置yum源

[elasticsearch-2.x]
name=Elasticsearch repository for 2.x packages
baseurl=http://packages.elastic.co/elasticsearch/2.x/centos
gpgcheck=1
gpgkey=http://packages.elastic.co/GPG-KEY-elasticsearch
enable=1

yum install elasticsearch -y    #yum安裝elasticsearch

2.安裝Java

yum install java -y  

java -version

基於ELK的日誌分析、存儲、展現

3.修改配置文件elasticsearch.yml

cd /etc/elasticsearch/

vim elasticsearch.yml

#17行 集羣名稱
cluster.name: yun

#23行 節點名稱
node.name: node1

#33行 工做目錄
path.data: /data/es-data
path.logs: /var/log/elasticsearch/

#43行 防止交換swap分區
bootstrap.memory_lock: true

#54行 監聽網絡
network.host: 0.0.0.0

#58行 端口
http.port: 9200

4.建立配置文件中的工做目錄,並修改其屬性

mkdir -p /data/es-data

chown -R elasticsearch:elasticsearch /data/es-data/

5.啓動ElasticSearch服務,並查看其端口9200

systemctl start elasticsearch.service

netstat -ntap | grep 9200  #稍微等待一會

基於ELK的日誌分析、存儲、展現

6.經過瀏覽器訪問9200端口

http://192.168.26.144:9200

基於ELK的日誌分析、存儲、展現

7.ES交互

經過RESTful API (經過json格式交互)linux

curl -i -XGET 'http://192.168.175.132:9200/_count?pretty' -d '{
"query": {
    "match_all": {}
}
}'

`基於ELK的日誌分析、存儲、展現nginx

8.安裝插件

#安裝ES插件elasticsearch-head
  /usr/share/elasticsearch/bin/plugin install mobz/elasticsearch-head
#安裝ES插件elasticsearch-kopf
 /usr/share/elasticsearch/bin/plugin install lmenezes/elasticsearch-kopf

安裝完成後在plugins目錄下能夠看到head和kopf
基於ELK的日誌分析、存儲、展現web

能夠在web界面上輸入數據,再查詢
基於ELK的日誌分析、存儲、展現
基於ELK的日誌分析、存儲、展現redis

9.部署ES多集羣

在第二臺服務器上同時安裝ES服務同上,須要注意的是修改配置文件elasticsearch.yml有些許不一樣。mongodb

cd /etc/elasticsearch/

vim elasticsearch.yml

#17行 集羣名稱
cluster.name: yun

#23行 節點名稱
node.name: node2

#69行 自動發現機制
discovery.zen.ping.unicast.hosts: ["192.168.26.144", "192.168.26.147"]

基於ELK的日誌分析、存儲、展現
啓動elasticsearchapache

systemctl start elasticsearch.service

netstat -ntap | grep 9200

一樣在第一臺服務器node1中配置文件修改,再重啓服務json

#69行 單播列表自動發現機制
discovery.zen.ping.unicast.hosts: ["192.168.26.147", "192.168.26.144"]

訪問head能夠看到ES的主分片和副本分片bootstrap

http://192.168.26.144:9200/_plugin/head/

基於ELK的日誌分析、存儲、展現
訪問kopf能夠看到ES的集羣節點信息

http://192.168.26.144:9200/_plugin/kopf/

基於ELK的日誌分析、存儲、展現

9.生產環境注意內存解鎖和文件限制

less /var/log/elasticsearch/yun.log  #查看集羣日誌提示不讓鎖內存

基於ELK的日誌分析、存儲、展現
修改配置文件/etc/security/limits.conf

vim /etc/security/limits.conf
#末尾插入
# allow user 'elasticsearch' mlockall
elasticsearch soft memlock unlimited
elasticsearch hard memlock unlimited
* soft nofile 65535        
* hard nofile 65535

重啓生效

systemctl restart elasticsearch.service

部署Logstash

1.安裝Logstash

rpm --import https://packages.elastic.co/GPG-KEY-elasticsearch

vim /etc/yum.repos.d/ogstash.repo  #配置yum源

[logstash-2.1]
name=Logstash repository for 2.1.x packages
baseurl=http://packages.elastic.co/logstash/2.1/centos
gpgcheck=1
gpgkey=http://packages.elastic.co/GPG-KEY-elasticsearch
enable=1

yum install logstash -y

2.建立連接,識別logstash命令

ln -s /opt/logstash/bin/logstash /usr/bin/

3.配置Logstash收集

Logstash使用input和output定義收集日誌時的輸入和輸出。

  • input經常使用的輸入源有:
    file、syslog、redis、log4j、apache log或nginx log,或者其餘一些自定義的log格式。
  • output經常使用的輸出有:
    elasticsearch比較經常使用,fle:寫入文件,redis: 寫入隊列,hdfs: 寫入HDFS,需插件支持,zabbix: zabbix監控,mongodb: 寫入mongodb庫,除此以外編碼插件codes也比較經常使用,常常用來處理json數據或者多行數據源。

(1)定義輸入和輸出流,相似管道

logstash -e 'input { stdin{} } output { stdout{} }'

(2)詳細格式顯示

logstash -e 'input { stdin{} } output { stdout{ codec => rubydebug } }'

基於ELK的日誌分析、存儲、展現
(3)寫入到elasticsearch中

logstash -e 'input { stdin{} } output { elasticsearch { hosts => ["192.168.26.144:9200"] } }'

基於ELK的日誌分析、存儲、展現
基於ELK的日誌分析、存儲、展現
(4)寫入ES和同時生成文本

logstash -e 'input { stdin{} } output { elasticsearch { hosts => ["192.168.26.144:9200"] } stdout { codec => rubydebug } }'

基於ELK的日誌分析、存儲、展現
基於ELK的日誌分析、存儲、展現

(5)編寫配置文件將事件生成到ES

vim /etc/logstash/conf.d/01-logstash.conf

input { stdin { } }
output {
  elasticsearch { hosts => ["localhost:9200"] }
  stdout { codec => rubydebug }
}
logstash -f /etc/logstash/conf.d/01-logstash.conf  #配置文件生效

基於ELK的日誌分析、存儲、展現
基於ELK的日誌分析、存儲、展現

5.使用logstash收集日誌(系統日誌、java異常日誌、事件優化處理)

編寫配置文件將日誌生成到ES中

vim /root/file.conf

input {

      file {
          path => "/var/log/messages"              #系統日誌
          type => "system"
          start_position => "beginning"
      }
      file {
                    path => "/var/log/elasticsearch/yun.log"   #java異常日誌
                    type => "es-error"
                    start_position => "beginning"   
                    codec => multiline {                   #多行優化處理
                    pattern => "^\["
                    negate => true
                    what => "previous"
                }
            }
}

output {

     if [type] == "system" {
         elasticsearch {
             hosts => ["192.168.26.144:9200"]
             index => "system-%{+YYYY.MM.dd}"
         }
     } 

     if [type] == "es-error" {
         elasticsearch {
             hosts => ["192.168.26.144:9200"]
             index => "es-error-%{+YYYY.MM.dd}"
         }
     } 
}

logstash -f /root/file.conf  #日誌生成到ES上

基於ELK的日誌分析、存儲、展現
基於ELK的日誌分析、存儲、展現
基於ELK的日誌分析、存儲、展現

部署kibana

1.安裝kibana

wget https://download.elastic.co/kibana/kibana/kibana-4.3.1-linux-x64.tar.gz

tar zxvf kibana-4.3.1-linux-x64.tar.gz -C /opt/

mv /opt/kibana-4.3.1-linux-x64/ /usr/local/

cd /usr/local
mv kibana-4.3.1-linux-x64/ kibana

2.編輯kibana配置文件

vim /usr/local/kibana/config/kibana.yml

#2行 
server.port: 5601

#5行
server.host: "0.0.0.0"

#12行 ES地址
elasticsearch.url: "http://192.168.26.144:9200"

#20行
kibana.index: ".kibana"

基於ELK的日誌分析、存儲、展現

3.啓動kibana

yum install screen -y
screen   #開啓
/usr/local/kibana/bin/kibana

基於ELK的日誌分析、存儲、展現
ctrl+a+d 進行丟入後臺

4.訪問kibana

基於ELK的日誌分析、存儲、展現
基於ELK的日誌分析、存儲、展現
基於ELK的日誌分析、存儲、展現
基於ELK的日誌分析、存儲、展現

相關文章
相關標籤/搜索