ELK是一套完整的日誌解決方案,由ElasticSearch、Logstash、 Kibana
這三款開源軟件組成。java
- EastiSearch是基於Lucene開發的分佈式存儲檢引擎,用來存儲各種日誌;
- Logstash對日誌進行收集、分析,並將其存儲供之後使用:
- Kibana 是基於Node.js開發的展現工具,爲Logstah和ElasticSearch提供用於日誌展現的Web界面,還用於幫助彙總、分析和搜索重要日誌數據。
ELK官網https://www.elastic.co/products 分別提供包進行下載安裝。node
- 在全部須要收集日誌的服務上部署Logstash,做爲署Logstash agent用於監控並過濾所收集的日誌,將過濾後的內容整合在一塊兒,最終所有交給EastiSearch檢索引擎;
- 用EastiSearch進行自定義檢索;
- 再經過Kibana經過結合自定義檢索內容生成圖表,進行日誌數據展現。
rpm --import https://packages.elastic.co/GPG-KEY-elasticsearch vim elasticsearch.repo #配置yum源 [elasticsearch-2.x] name=Elasticsearch repository for 2.x packages baseurl=http://packages.elastic.co/elasticsearch/2.x/centos gpgcheck=1 gpgkey=http://packages.elastic.co/GPG-KEY-elasticsearch enable=1 yum install elasticsearch -y #yum安裝elasticsearch
yum install java -y java -version
cd /etc/elasticsearch/ vim elasticsearch.yml #17行 集羣名稱 cluster.name: yun #23行 節點名稱 node.name: node1 #33行 工做目錄 path.data: /data/es-data path.logs: /var/log/elasticsearch/ #43行 防止交換swap分區 bootstrap.memory_lock: true #54行 監聽網絡 network.host: 0.0.0.0 #58行 端口 http.port: 9200
mkdir -p /data/es-data chown -R elasticsearch:elasticsearch /data/es-data/
systemctl start elasticsearch.service netstat -ntap | grep 9200 #稍微等待一會
http://192.168.26.144:9200
經過RESTful API (經過json格式交互)linux
curl -i -XGET 'http://192.168.175.132:9200/_count?pretty' -d '{ "query": { "match_all": {} } }'
`nginx
#安裝ES插件elasticsearch-head /usr/share/elasticsearch/bin/plugin install mobz/elasticsearch-head
#安裝ES插件elasticsearch-kopf /usr/share/elasticsearch/bin/plugin install lmenezes/elasticsearch-kopf
安裝完成後在plugins目錄下能夠看到head和kopf
web
能夠在web界面上輸入數據,再查詢
redis
在第二臺服務器上同時安裝ES服務同上,須要注意的是修改配置文件elasticsearch.yml有些許不一樣。mongodb
cd /etc/elasticsearch/ vim elasticsearch.yml #17行 集羣名稱 cluster.name: yun #23行 節點名稱 node.name: node2 #69行 自動發現機制 discovery.zen.ping.unicast.hosts: ["192.168.26.144", "192.168.26.147"]
啓動elasticsearchapache
systemctl start elasticsearch.service netstat -ntap | grep 9200
一樣在第一臺服務器node1中配置文件修改,再重啓服務json
#69行 單播列表自動發現機制 discovery.zen.ping.unicast.hosts: ["192.168.26.147", "192.168.26.144"]
訪問head能夠看到ES的主分片和副本分片bootstrap
http://192.168.26.144:9200/_plugin/head/
訪問kopf能夠看到ES的集羣節點信息
http://192.168.26.144:9200/_plugin/kopf/
less /var/log/elasticsearch/yun.log #查看集羣日誌提示不讓鎖內存
修改配置文件/etc/security/limits.conf
vim /etc/security/limits.conf #末尾插入 # allow user 'elasticsearch' mlockall elasticsearch soft memlock unlimited elasticsearch hard memlock unlimited * soft nofile 65535 * hard nofile 65535
重啓生效
systemctl restart elasticsearch.service
rpm --import https://packages.elastic.co/GPG-KEY-elasticsearch vim /etc/yum.repos.d/ogstash.repo #配置yum源 [logstash-2.1] name=Logstash repository for 2.1.x packages baseurl=http://packages.elastic.co/logstash/2.1/centos gpgcheck=1 gpgkey=http://packages.elastic.co/GPG-KEY-elasticsearch enable=1 yum install logstash -y
ln -s /opt/logstash/bin/logstash /usr/bin/
Logstash使用input和output定義收集日誌時的輸入和輸出。
- input經常使用的輸入源有:
file、syslog、redis、log4j、apache log或nginx log,或者其餘一些自定義的log格式。- output經常使用的輸出有:
elasticsearch比較經常使用,fle:寫入文件,redis: 寫入隊列,hdfs: 寫入HDFS,需插件支持,zabbix: zabbix監控,mongodb: 寫入mongodb庫,除此以外編碼插件codes也比較經常使用,常常用來處理json數據或者多行數據源。
(1)定義輸入和輸出流,相似管道
logstash -e 'input { stdin{} } output { stdout{} }'
(2)詳細格式顯示
logstash -e 'input { stdin{} } output { stdout{ codec => rubydebug } }'
(3)寫入到elasticsearch中
logstash -e 'input { stdin{} } output { elasticsearch { hosts => ["192.168.26.144:9200"] } }'
(4)寫入ES和同時生成文本
logstash -e 'input { stdin{} } output { elasticsearch { hosts => ["192.168.26.144:9200"] } stdout { codec => rubydebug } }'
(5)編寫配置文件將事件生成到ES
vim /etc/logstash/conf.d/01-logstash.conf input { stdin { } } output { elasticsearch { hosts => ["localhost:9200"] } stdout { codec => rubydebug } }
logstash -f /etc/logstash/conf.d/01-logstash.conf #配置文件生效
編寫配置文件將日誌生成到ES中
vim /root/file.conf input { file { path => "/var/log/messages" #系統日誌 type => "system" start_position => "beginning" } file { path => "/var/log/elasticsearch/yun.log" #java異常日誌 type => "es-error" start_position => "beginning" codec => multiline { #多行優化處理 pattern => "^\[" negate => true what => "previous" } } } output { if [type] == "system" { elasticsearch { hosts => ["192.168.26.144:9200"] index => "system-%{+YYYY.MM.dd}" } } if [type] == "es-error" { elasticsearch { hosts => ["192.168.26.144:9200"] index => "es-error-%{+YYYY.MM.dd}" } } } logstash -f /root/file.conf #日誌生成到ES上
wget https://download.elastic.co/kibana/kibana/kibana-4.3.1-linux-x64.tar.gz tar zxvf kibana-4.3.1-linux-x64.tar.gz -C /opt/ mv /opt/kibana-4.3.1-linux-x64/ /usr/local/ cd /usr/local mv kibana-4.3.1-linux-x64/ kibana
2.編輯kibana配置文件
vim /usr/local/kibana/config/kibana.yml #2行 server.port: 5601 #5行 server.host: "0.0.0.0" #12行 ES地址 elasticsearch.url: "http://192.168.26.144:9200" #20行 kibana.index: ".kibana"
yum install screen -y screen #開啓 /usr/local/kibana/bin/kibana
ctrl+a+d 進行丟入後臺