https://blog.frognew.com/2019/07/kafka-manager.htmlhtml
前面咱們已經在k8s上使用incubator/kafka
chart部署了Kafka。本篇來聊聊kafka的管理和監控。 關於kafka的監控方案有不少:git
Prometheus + kafka-prometheus-jmx-exporter
的監控方案,這個也是incubator/kafka
中支持的監控方案,默認使用helm部署kafka是沒有開啓,可經過prometheus.kafka.enabled
開啓,這裏先不開啓,準備在以後的內容中介紹Prometheus + kafka-prometheus-jmx-exporter
Helm的官方repo中已經提供了Kafka Manager的Chart。github
建立kafka-manager-values.yaml
:app
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 |
image: repository: zenko/kafka-manager tag: 1.3.3.22 zkHosts: kafka-zookeeper:2181 basicAuth: enabled: true username: admin password: admin ingress: enabled: true hosts: - kafka.frognew.com tls: - secretName: frognew-com-tls-secret hosts: - kafka.frognew.com |
使用helm部署kafka-manager:spa
1 |
helm install --name kafka-manager --namespace kafka -f kafka-manager-values.yaml stable/kafka-manager |
安裝完成後,確認kafka-manager的Pod已經正常啓動:code
1 2 3 |
kubectl get pod -n kafka -l app=kafka-manager NAME READY STATUS RESTARTS AGE kafka-manager-5d974b7844-bl7k4 1/1 Running 0 5m47s |
使用https://kafka.frognew.com打開kafka-manager
的頁面,將咱們以前在k8s上部署的kafka集羣以名稱爲test,並配置Cluster Zookeeper Hosts
爲kafka-zookeeper:2181
,便可將前面部署的kafka集羣歸入kafka-manager
管理當中。htm