K8S系統的組件日誌
K8S Cluster裏面部署的應用程序日誌php
方案一:Node上部署一個日誌收集程序
一、DaemonSet方式部署日誌收集程序 --這個在每一個節點上會有一個pod監聽
二、對本節點(node上的)/var/log和 /var/lib/docker/containers/
兩個目錄下的日誌進行採集html
1)/var/log/containers
2)以下圖:java
方案二:Pod中附加專用日誌收集的容器--使用這個方案
每一個運行應用程序的Pod中增長一個日誌
收集容器,使用emtyDir共享日誌目錄讓
日誌收集程序讀取到。node
方案三:應用程序直接推送日誌
超出Kubernetes範圍,須要在程序中實現的mysql
一、[root@docker ~]# mkdir logs
二、[root@docker ~]# cd logs/nginx
部署elk
一、官方地址:https://www.elastic.co/cn/
操做文檔:https://www.elastic.co/guide/en/logstash/current/installing-logstash.htmlsql
二、部署在192.168.1.25上
1)安裝jdk
版本須要在Java 8發行版中安裝Java版本1.80.131或稍後版本,否則運行失敗
下載:https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.htmldocker
2) [root@docker ~]# cat /etc/yum.repos.d/elastic.repo
[logstash-6.x]
name=Elastic repository for 6.x packages
baseurl=https://artifacts.elastic.co/packages/6.x/yum
gpgcheck=1
gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch
enabled=1
autorefresh=1
type=rpm-mdruby
3)[root@docker ~]# yum install logstash kibana elasticsearch -y服務器
4)修改以下:
[root@docker ~]# cat /etc/kibana/kibana.yml | grep -v '^#'| grep -v '^$'
server.port: 5601
server.host: "0.0.0.0"
elasticsearch.url: "http://192.168.1.25:9200"
5)systemctl start kibana
6)[root@docker ~]# cat /etc/elasticsearch/elasticsearch.yml | grep -v '^#'| grep -v '^$'
path.data: /var/lib/elasticsearch
path.logs: /var/log/elasticsearch
network.host: 192.168.1.25
http.port: 9200
7)須要解析到java
ln -sf /usr/local/jdk1.8.0_191/bin/java /usr/local/bin/java
8)啓動:systemctl start elasticsearch
10)
11)
12)
13)[root@docker local]# cat /etc/logstash/conf.d/k8s_syslog.conf
input {
#filebeat客戶端
beats {
port => 5044
}
}
#篩選
filter {
}
output {
#輸出到es
elasticsearch {
hosts => ["http://192.168.1.25:9200"]
index => "k8s-syslog-%{+YYYY.MM.dd}"
}
#控制檯輸出,方便調試
stdout { codec => rubydebug }
}
14)這一步是調試
[root@docker local]# /usr/share/logstash/bin/logstash -f /etc/logstash/conf.d/k8s_syslog.conf
15)啓動
systemctl start logstash
三、到master01上部署filebeat
[root@docker logs]# vi k8s-logs.yaml 說明
fields_under_root:若是該選項設置爲true,則新增fields成爲頂級目錄
1)
2)
image: lizhenliang/filebeat:6.4.2 下載docker.hub上的要等好久
3)建立
kubectl apply -f k8s-logs.yaml
4)查看
5)再每一個node上都安裝一個pod,這就是DaemonSet的做用
四、訪問:查看是否有索引
五、再新建索引
六、搭建nginx的環境讓其產生日誌
192.168.1.13
[root@docker php-demo]# ls
deployment.yaml ingress.yaml mysql.yaml.bak namespace.yaml registry-pull-secret.yaml service.yaml
[root@docker php-demo]# kubectl apply -f .
1)刪除deployment.yaml 由於要讓registry-pull-secret.yaml受權訪問後,再更新
[root@docker php-demo]# kubectl delete -f deployment.yaml
[root@docker php-demo]# kubectl apply -f deployment.yaml
2)查看下pods,svc,ingress
3)必需要有ingress控制器,才能編輯ingress 規則
由於ingress-controller 至關於nginx ,ingress.yaml至關於nginx上的轉發的規則
如果有問題:從新apply
/root/demo/ingress/mandatory.yaml 這個文件就是生成ingress-controller
4)查看ingress-控制器分配在了哪一個node上,至關於nginx的服務器IP,這樣就能夠在hosts綁定域名
192.168.1.24 php.ctnrs.com
5 ) 訪問下:http://php.ctnrs.com http://php.ctnrs.com/status.php
6)更新建立filebeat的pod
首先建立filebeat的配置文件,這個是存在Configmap下的
再建立filebeat的pod
[root@docker logs]# vi nginx-deployment.yaml
定義pod1:php-demo 如果已建立的話,再更新須要滾動更新(保障容器都在提供服務,一個個滾動替換)完成
定義pod2:filebeat
掛載:emptyDir: {} 這個表示2個容器都是共享的,這樣filebeat就能夠讀到nginx的日誌文件了
7)執行
8)驗證
這裏的是k8s的監控檢查
9)修改logstash的文件
分開寫,好比nginx就輸入到nginx裏,k8s就輸入到k8s裏的日誌
10)重啓logstash
systemctl restart logstash
11)在kibana上添加索引
下面是部署java的日誌
一、
二、和php-demo的一致
三、再次查看kibana 有沒有索引生成便可