應用一旦容器化之後,須要考慮的就是如何採集位於Docker容器中的應用程序的打印日誌供運維分析。典型的好比 SpringBoot應用的日誌 收集。本文即將闡述如何利用ELK日誌中心來收集容器化應用程序所產生的日誌,而且能夠用可視化的方式對日誌進行查詢與分析,其架構以下圖所示:nginx
注: 本文首發於 My 公衆號 CodeSheep ,可 長按 或 掃描 下面的 當心心 來訂閱 ↓ ↓ ↓docker
修改Rsyslog服務配置文件:數據庫
vim /etc/rsyslog.conf
複製代碼
開啓下面三個參數:編程
$ModLoad imtcp
$InputTCPServerRun 514
*.* @@localhost:4560
複製代碼
意圖很簡單:讓Rsyslog加載imtcp模塊並監聽514端口,而後將Rsyslog中收集的數據轉發到本地4560端口!vim
而後重啓Rsyslog服務:c#
systemctl restart rsyslog
複製代碼
查看rsyslog啓動狀態:瀏覽器
netstat -tnl
複製代碼
docker run -d -p 9200:9200 \
-v ~/elasticsearch/data:/usr/share/elasticsearch/data \
--name elasticsearch elasticsearch
複製代碼
添加 ~/logstash/logstash.conf
配置文件以下:bash
input {
syslog {
type => "rsyslog"
port => 4560
}
}
output {
elasticsearch {
hosts => [ "elasticsearch:9200" ]
}
}
複製代碼
配置中咱們讓Logstash從本地的Rsyslog服務中取出應用日誌數據,而後轉發到ElasticSearch數據庫中!服務器
配置完成之後,能夠經過以下命令來啓動Logstash容器:架構
docker run -d -p 4560:4560 \
-v ~/logstash/logstash.conf:/etc/logstash.conf \
--link elasticsearch:elasticsearch \
--name logstash logstash \
logstash -f /etc/logstash.conf
複製代碼
docker run -d -p 5601:5601 \
--link elasticsearch:elasticsearch \
-e ELASTICSEARCH_URL=http://elasticsearch:9200 \
--name kibana kibana
複製代碼
docker run -d -p 90:80 --log-driver syslog --log-opt \
syslog-address=tcp://localhost:514 \
--log-opt tag="nginx" --name nginx nginx
複製代碼
很明顯Docker容器中的Nginx應用日誌轉發到本地syslog服務中,而後由syslog服務將數據轉給Logstash進行收集。
至此,日誌中心搭建完畢,目前一共四個容器在工做:
瀏覽器打開localhost:90
來打開Nginx界面,並刷新幾回,讓後臺產生GET請求的日誌
打開Kibana可視化界面:localhost:5601
在查詢框中輸入program=nginx
可查詢出特定日誌
做者更多的SpringBt實踐文章在此:
若是有興趣,也能夠抽點時間看看做者一些關於容器化、微服務化方面的文章: