應用一旦容器化之後,須要考慮的就是如何採集位於Docker容器中的應用程序的打印日誌供運維分析。典型的好比 SpringBoot應用的日誌 收集。本文即將闡述如何利用ELK日誌中心來收集容器化應用程序所產生的日誌,而且能夠用可視化的方式對日誌進行查詢與分析,其架構以下圖所示:nginx
注: 本文首發於 My 公衆號 CodeSheep ,可 長按 或 掃描 下面的 當心心 來訂閱 ↓ ↓ ↓
修改Rsyslog服務配置文件:docker
vim /etc/rsyslog.conf
開啓下面三個參數:數據庫
$ModLoad imtcp $InputTCPServerRun 514 *.* @@localhost:4560
意圖很簡單:讓Rsyslog加載imtcp模塊並監聽514端口,而後將Rsyslog中收集的數據轉發到本地4560端口!編程
而後重啓Rsyslog服務:vim
systemctl restart rsyslog
查看rsyslog啓動狀態:c#
netstat -tnl
docker run -d -p 9200:9200 \ -v ~/elasticsearch/data:/usr/share/elasticsearch/data \ --name elasticsearch elasticsearch
添加 ~/logstash/logstash.conf
配置文件以下:瀏覽器
input { syslog { type => "rsyslog" port => 4560 } } output { elasticsearch { hosts => [ "elasticsearch:9200" ] } }
配置中咱們讓Logstash從本地的Rsyslog服務中取出應用日誌數據,而後轉發到ElasticSearch數據庫中!服務器
配置完成之後,能夠經過以下命令來啓動Logstash容器:架構
docker run -d -p 4560:4560 \ -v ~/logstash/logstash.conf:/etc/logstash.conf \ --link elasticsearch:elasticsearch \ --name logstash logstash \ logstash -f /etc/logstash.conf
docker run -d -p 5601:5601 \ --link elasticsearch:elasticsearch \ -e ELASTICSEARCH_URL=http://elasticsearch:9200 \ --name kibana kibana
docker run -d -p 90:80 --log-driver syslog --log-opt \ syslog-address=tcp://localhost:514 \ --log-opt tag="nginx" --name nginx nginx
很明顯Docker容器中的Nginx應用日誌轉發到本地syslog服務中,而後由syslog服務將數據轉給Logstash進行收集。框架
至此,日誌中心搭建完畢,目前一共四個容器在工做:
localhost:90
來打開Nginx界面,並刷新幾回,讓後臺產生GET請求的日誌localhost:5601
在查詢框中輸入program=nginx
可查詢出特定日誌
做者更多的SpringBt實踐文章在此:
若是有興趣,也能夠抽點時間看看做者一些關於容器化、微服務化方面的文章: