本文首發於 Nebula Graph 官網:https://nebula-graph.com.cn/posts/how-to-deploy-nebula-graph-in-kubernetes/node
Kubernetes 是什麼
Kubernetes 是一個開源的,用於管理雲平臺中多個主機上的容器化的應用,Kubernetes 的目標是讓部署容器化的應用簡單而且高效,Kubernetes 提供了應用部署,規劃,更新,維護的一種機制。linux
Kubernetes 在設計結構上定義了一系列的構建模塊,其目的是爲了提供一個能夠部署、維護和擴展應用程序的機制,組成 Kubernetes 的組件設計理念爲鬆耦合和可擴展的,這樣可使之知足多種不一樣的工做負載。可擴展性在很大程度上由 Kubernetes API 提供,此 API 主要被做爲擴展的內部組件以及 Kubernetes 上運行的容器來使用。git
Kubernetes 主要由如下幾個核心組件組成:github
etcd
保存了整個集羣的狀態kube-apiserver
提供了資源操做的惟一入口,並提供認證、受權、訪問控制、API 註冊和發現等機制kube-controller-manager
負責維護集羣的狀態,好比故障檢測、自動擴展、滾動更新等kube-scheduler
負責資源的調度,按照預約的調度策略將Pod調度到相應的機器上kubelet
負責維護容器的生命週期,同時也負責 Volume和網絡的管理kube-proxy
負責爲 Service 提供 cluster 內部的服務發現和負載均衡
Kubernetes 和數據庫
數據庫容器化是最近的一大熱點,那麼 Kubernetes 能爲數據庫帶來什麼好處呢?docker
- 故障恢復:Kubernetes 提供故障恢復的功能,數據庫應用若是宕掉,Kubernetes 能夠將其自動重啓,或者將數據庫實例遷移到集羣中其餘節點上
- 存儲管理:Kubernetes 提供了豐富的存儲接入方案,數據庫應用能透明地使用不一樣類型的存儲系統
- 負載均衡:Kubernetes Service 提供負載均衡功能,能將外部訪問均衡到不一樣的數據庫實例副本上
- 水平拓展:Kubernetes 能夠根據當前數據庫集羣的資源利用率狀況,縮放副本數目,從而提高資源的利用率
目前不少數據庫,如:MySQL,MongoDB 和 TiDB 在 Kubernetes 集羣中都能運行良好。數據庫
Nebula Graph 在 Kubernetes 中的實踐
Nebula Graph 是一個分佈式的開源圖數據庫,主要組件有:Query Engine 的 graphd,數據存儲的 storaged,和元數據的 meted。在 Kubernetes 實踐過程當中,它主要給圖數據庫 Nebula Graph 帶來了如下的好處:api
- Kubernetes 能均衡 nebula graphd,metad 和 storaged 不一樣副本之間的負載。graphd,metad 和 storaged 能夠經過 Kubernetes 的域名服務自動發現彼此。
- 經過 StorageClass,PVC 和 PV 能夠屏蔽底層存儲細節,不管使用本地卷仍是雲盤,Kubernetes 都可以透明對接。
- 經過 Kubernetes 能夠在數秒內成功部署一套 Nebula 集羣,Kubernetes 也能夠無感知地實現 Nebula 集羣的升級。
- Nebula 集羣經過 Kubernetes 能夠作到自我恢復,單體副本 crash,Kubernetes 能夠從新將其拉起,無需運維人員介入。
- Kubernetes 能夠根據當前 Nebula 集羣的資源利用率狀況彈性伸縮集羣規模,從而提高集羣的性能。
下面來說解下具體的實踐內容。bash
集羣部署
硬件和軟件要求
這裏主要羅列下本文部署涉及到的機器、操做系統參數服務器
- 操做系統使用的 CentOS-7.6.1810 x86_64
- 虛擬機配置
- 4 CPU
- 8G 內存
- 50G 系統盤
- 50G 數據盤 A
- 50G 數據盤 B
- Kubernetes 集羣版本 v1.14+
- Nebula 版本爲 v2.0.0-rc1
- 使用本地 PV 做爲數據存儲
- CoreDNS 版本 1.6.0+
K8s 集羣規劃
如下爲集羣清單網絡
服務器 IP | nebula 實例 | role |
---|---|---|
192.168.0.1 | master | |
192.168.0.2 | graphd, metad-0, storaged-0 | node |
192.168.0.3 | graphd, metad-1, storaged-1 | node |
192.168.0.4 | graphd, metad-2, storaged-2 | node |
K8s 待部署組件
- 安裝 Helm3
- 準備本地磁盤,並安裝本地卷插件
- 安裝 nebula 集羣
安裝 Helm3
Helm 是 Kubernetes 集羣上的包管理工,使用 Helm 能夠極大地下降使用 Kubernetes 部署應用的門檻。本文不作 Helm 詳細介紹,有興趣的小夥伴可自行閱讀《Helm 入門指南》。
下載安裝 Helm
使用下面命令在終端執行便可安裝 Helm
$ wget https://get.helm.sh/helm-v3.5.2-linux-amd64.tar.gz $ tar -zxvf helm/helm-v3.5.2-linux-amd64.tgz $ mv linux-amd64/helm /usr/bin/helm
查看 Helm 版本
執行 helm version
命令便可查看對應的 Helm 版本,以文本爲例,如下爲輸出結果:
version.BuildInfo{Version:"v3.5.2", GitCommit:"167aac70832d3a384f65f9745335e9fb40169dc2", GitTreeState:"dirty", GoVersion:"go1.15.7"}
設置本地磁盤
在每臺機器上作以下配置
建立 mount 目錄
$ sudo mkdir -p /mnt/disks
格式化數據盤
$ sudo mkfs.ext4 /dev/diskA $ sudo mkfs.ext4 /dev/diskB
掛載數據盤
$ DISKA_UUID=$(blkid -s UUID -o value /dev/diskA) $ DISKB_UUID=$(blkid -s UUID -o value /dev/diskB) $ sudo mkdir /mnt/disks/$DISKA_UUID $ sudo mkdir /mnt/disks/$DISKB_UUID $ sudo mount -t ext4 /dev/diskA /mnt/disks/$DISKA_UUID $ sudo mount -t ext4 /dev/diskB /mnt/disks/$DISKB_UUID $ echo UUID=`sudo blkid -s UUID -o value /dev/diskA` /mnt/disks/$DISKA_UUID ext4 defaults 0 2 | sudo tee -a /etc/fstab $ echo UUID=`sudo blkid -s UUID -o value /dev/diskB` /mnt/disks/$DISKB_UUID ext4 defaults 0 2 | sudo tee -a /etc/fstab
部署本地卷插件
$ curl https://github.com/kubernetes-sigs/sig-storage-local-static-provisioner/archive/v2.4.0.zip $ unzip v2.4.0.zip
修改 v2.4.0/helm/provisioner/values.yaml
classes 部分:
- 將
hostDir: /mnt/fast-disks
改爲hostDir: /mnt/disks
,# storageClass: true
改爲storageClass: true
。而後執行:
$ helm install local-static-provisioner --namespace default sig-storage-local-static-provisioner/helm/provisioner # 查看 local-static-provisioner 部署狀況 $ helm list NAME NAMESPACE REVISION UPDATED STATUS CHART APP VERSION local-volume-provisioner default 1 2021-02-10 11:06:34.3540341 +0800 CST deployed provisioner-2.4.0 2.4.0
部署 nebula 集羣
下載 nebula helm chart
# 下載 nebula chart $ helm repo add nebula-charts https://vesoft-inc.github.io/nebula-docker-compose $ helm pull nebula-charts/nebula $ tar -zxvf nebula-v2.0.0.tgz
設置 Kubernetes node節點
下面是 Kubernetes 節點列表,咱們須要設置 node 節點的調度標籤。能夠將 192.168.0.2,192.168.0.3,192.168.0.4 打上 nebula: "cloud"
的標籤。
服務器 IP | kubernetes roles | nodeName |
---|---|---|
192.168.0.1 | master | 192.168.0.1 |
192.168.0.2 | node | 192.168.0.2 |
192.168.0.3 | node | 192.168.0.3 |
192.168.0.4 | node | 192.168.0.4 |
具體操做以下:
$ kubectl label node 192.168.0.2 nebula="cloud" --overwrite $ kubectl label node 192.168.0.3 nebula="cloud" --overwrite $ kubectl label node 192.168.0.4 nebula="cloud" --overwrite
調整 values 默認值
nebula helm chart 目錄以下:
nebula ├── Chart.yaml ├── README.md ├── templates │ ├── configmap.yaml │ ├── deployment.yaml │ ├── _helpers.tpl │ ├── NOTES.txt │ ├── pdb.yaml │ ├── serviceaccount.yaml │ ├── service.yaml │ └── statefulset.yaml └── values.yaml 1 directory, 11 files
能夠根據運行環境需求修改 charts/nebula/values.yaml
裏面的默認值
經過 helm 安裝 nebula
$ helm install nebula charts/nebula # 查看部署狀態 $ helm status nebula NAME: nebula LAST DEPLOYED: Fri Feb 19 12:58:16 2021 NAMESPACE: default STATUS: deployed REVISION: 1 TEST SUITE: None NOTES: Nebula Graph Cluster installed! 1. Watch all containers come up. $ kubectl get pods --namespace=default -l app.kubernetes.io=nebula -w # 查看 K8s 集羣上 nebula 部署狀況 $ kubectl get pods --namespace=default -l app.kubernetes.io=nebula NAME READY STATUS RESTARTS AGE nebula-graphd-676cfcf797-4q7mk 1/1 Running 0 6m nebula-graphd-676cfcf797-whwqp 1/1 Running 0 6m nebula-graphd-676cfcf797-zn5l6 1/1 Running 0 6m nebula-metad-0 1/1 Running 0 6m nebula-metad-1 1/1 Running 0 6m nebula-metad-2 1/1 Running 0 6m nebula-storaged-0 1/1 Running 0 6m nebula-storaged-1 1/1 Running 0 6m nebula-storaged-2 1/1 Running 0 6m
訪問 nebula 集羣:
$ kubectl get service nebula-graphd NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE nebula-graphd NodePort 10.105.47.116 <none> 9669:31646/TCP,19669:30554/TCP,19670:32386/TCP 22m # 使用 nebula-console 測試 $ docker run --rm -ti --entrypoint=/bin/sh vesoft/nebula-console:v2-nightly # 經過 NodePort 鏈接到 graphd 組件 / $ nebula-console -addr 192.168.0.4 -port 31646 -u root -p vesoft 2021/02/19 05:04:55 [INFO] connection pool is initialized successfully Welcome to Nebula Graph v2.0.0-rc1! (root@nebula) [(none)]> show hosts; +---------------------------------------------------------------+------+----------+--------------+----------------------+------------------------+ | Host | Port | Status | Leader count | Leader distribution | Partition distribution | +---------------------------------------------------------------+------+----------+--------------+----------------------+------------------------+ | "nebula-storaged-0.nebula-storaged.default.svc.cluster.local" | 9779 | "ONLINE" | 0 | "No valid partition" | "No valid partition" | +---------------------------------------------------------------+------+----------+--------------+----------------------+------------------------+ | "nebula-storaged-1.nebula-storaged.default.svc.cluster.local" | 9779 | "ONLINE" | 0 | "No valid partition" | "No valid partition" | +---------------------------------------------------------------+------+----------+--------------+----------------------+------------------------+ | "nebula-storaged-2.nebula-storaged.default.svc.cluster.local" | 9779 | "ONLINE" | 0 | "No valid partition" | "No valid partition" | +---------------------------------------------------------------+------+----------+--------------+----------------------+------------------------+ | "Total" | | | 0 | | | +---------------------------------------------------------------+------+----------+--------------+----------------------+------------------------+ Got 4 rows (time spent 2608/4258 us)
FAQ
如何搭建一套 Kubernetes 集羣?
搭建高可用的 Kubernetes 能夠參考社區文檔:https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/high-availability/
如何調整 nebula 集羣的部署參數?
在使用 helm install 時,使用 --set 能夠設置部署參數,從而覆蓋掉 helm chart 中 values.yaml 中的變量。參考文檔:https://helm.sh/docs/intro/using_helm/
可否兼容 nebula v1.0.0+ 集羣部署?
v1.0.0+ 不支持內部域名解析,須要修改 charts/nebula/values.yaml
,配置以下:
hostNetwork: true metadEndpoints: [] - 192.168.0.2:9559 - 192.168.0.3:9559 - 192.168.0.4:9559
如何在 K8s 集羣外部訪問 nebula 內部組件?
本文使用 NodePort 的方式訪問 graphd 組件,其餘的訪問方式還有 hostPort、hostNetwork、Ingress、LoadBalancer,須要您根據實際的部署環境來定製。
如何查看 nebula 集羣情況?
使用 kubectl get pods --namespace=default -l app.kubernetes.io=nebula
命令,或者直接在 Kubernetes dashboard 上查看 nebula 集羣的運行情況。
如何使用其餘類型的存儲?
參考文檔:https://kubernetes.io/zh/docs/concepts/storage/storage-classes/