Kubernetes 高可用集羣升級到1.13.4版

Kubernetes 1.13.4已經正式發佈,這裏介紹將高可用Kubernetes集羣升級的步驟和遇到問題的解決,在高可用集羣中,須要手工修改各個節點的鏡像版本。快速升級(含國內鏡像快速下載連接)包括升級kubeadm/kubectl/kubelet版本、拉取鏡像、升級Kubernetes集羣多個節點(包含多主和工做節點)等步驟。node

一、升級kubeadm/kubectl/kubelet版本

main upgrade, kubeadm/kubectl/kubelet upgradegit

sudo apt install kubeadm=1.13.4-00 kubectl=1.13.4-00 kubelet=1.13.4-00

查看該版本的容器鏡像版本:github

kubeadm config images list

輸出以下:docker

~# kubeadm config images list

k8s.gcr.io/kube-apiserver:v1.13.4
k8s.gcr.io/kube-controller-manager:v1.13.4
k8s.gcr.io/kube-scheduler:v1.13.4
k8s.gcr.io/kube-proxy:v1.13.4
k8s.gcr.io/pause:3.1
k8s.gcr.io/etcd:3.2.24
k8s.gcr.io/coredns:1.2.6

二、拉取容器鏡像

原始的kubernetes鏡像文件在gcr上,不能直接下載。我給鏡像到了阿里雲的杭州機房的容器倉庫裏,拉取仍是比較快的。shell

echo ""
echo "=========================================================="
echo "Pull Kubernetes v1.13.3 Images from aliyuncs.com ......"
echo "=========================================================="
echo ""

MY_REGISTRY=registry.cn-hangzhou.aliyuncs.com/openthings

## 拉取鏡像
docker pull ${MY_REGISTRY}/k8s-gcr-io-kube-apiserver:v1.13.4
docker pull ${MY_REGISTRY}/k8s-gcr-io-kube-controller-manager:v1.13.4
docker pull ${MY_REGISTRY}/k8s-gcr-io-kube-scheduler:v1.13.4
docker pull ${MY_REGISTRY}/k8s-gcr-io-kube-proxy:v1.13.4
docker pull ${MY_REGISTRY}/k8s-gcr-io-etcd:3.2.24
docker pull ${MY_REGISTRY}/k8s-gcr-io-pause:3.1
docker pull ${MY_REGISTRY}/k8s-gcr-io-coredns:1.2.6

## 添加Tag
docker tag ${MY_REGISTRY}/k8s-gcr-io-kube-apiserver:v1.13.4 k8s.gcr.io/kube-apiserver:v1.13.4
docker tag ${MY_REGISTRY}/k8s-gcr-io-kube-scheduler:v1.13.4 k8s.gcr.io/kube-scheduler:v1.13.4
docker tag ${MY_REGISTRY}/k8s-gcr-io-kube-controller-manager:v1.13.4 k8s.gcr.io/kube-controller-manager:v1.13.4
docker tag ${MY_REGISTRY}/k8s-gcr-io-kube-proxy:v1.13.4 k8s.gcr.io/kube-proxy:v1.13.4
docker tag ${MY_REGISTRY}/k8s-gcr-io-etcd:3.2.24 k8s.gcr.io/etcd:3.2.24
docker tag ${MY_REGISTRY}/k8s-gcr-io-pause:3.1 k8s.gcr.io/pause:3.1
docker tag ${MY_REGISTRY}/k8s-gcr-io-coredns:1.2.6 k8s.gcr.io/coredns:1.2.6

echo ""
echo "=========================================================="
echo "Pull Kubernetes v1.13.4 Images FINISHED."
echo "into registry.cn-hangzhou.aliyuncs.com/openthings, "
echo "           by openthings@https://my.oschina.net/u/2306127."
echo "=========================================================="

echo ""

保存爲shell腳本,而後執行。api

三、升級Kubernetes集羣

全新安裝:網絡

#指定IP地址,1.13.4版本:
sudo kubeadm init --kubernetes-version=v1.13.4 --apiserver-advertise-address=10.1.1.100 --pod-network-cidr=10.244.0.0/16

#注意,CoreDNS已經內置,再也不須要參數--feature-gates CoreDNS=true

先查看一下須要升級的各個組件的版本。app

使用kubeadm upgrade plan ,輸出的版本升級信息以下:ide

COMPONENT            CURRENT   AVAILABLE
API Server           v1.13.3   v1.13.4
Controller Manager   v1.13.3   v1.13.4
Scheduler            v1.13.3   v1.13.4
Kube Proxy           v1.13.3   v1.13.4
CoreDNS              1.2.6     1.2.6
Etcd                 3.2.24    3.2.24

確保上面的容器鏡像已經下載(若是沒有提早下載,可能被網絡阻隔致使掛起),而後執行升級:阿里雲

kubeadm upgrade -y apply v1.13.4

看到下面信息,就OK了。

[upgrade/successful] SUCCESS! Your cluster was upgraded to "v1.13.4". Enjoy!

而後,配置當前用戶環境:

mkdir -p $HOME/.kube
  sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
  sudo chown $(id -u):$(id -g) $HOME/.kube/config

就可使用 kubectl version 來查看狀態和 kubectl cluster-info 查看服務地址。

  • 注意:
    • 全部節點預先拉取最新版本的鏡像,參考上面的方法。
    • 主節點升級命令 kubeadm upgrade 能夠從任意高可用主控制器啓動。
    • 升級過程當中會報etcd錯誤,由於在設置高可用時進行了修改,不用理會。目前kubeadm的upgrade不會改變其設置。

四、工做節點的升級

每一個工做節點須要拉取上面對應版本的鏡像,以及安裝kubelet的對應版本。

檢查版本:

~$ kubectl version

對於高可用集羣,須要對除升級完的 master 節點外的各個節點修改鏡像的版本。

  • 分別打開/etc/kubernetes/manifest下面的文件,將其中的images版本修改成1.13.4。
    • kube-apiserver.yaml
    • kube-controller-manager.yaml
    • kube-scheduler.yaml
  • 保存後,kubelet服務將會自動重啓相應的容器實例。

查看 node 狀態。

kubectl get node -o wide

顯示狀態以下:

NAME     STATUS   ROLES    AGE   VERSION   INTERNAL-IP   EXTERNAL-IP   OS-IMAGE             KERNEL-VERSION      CONTAINER-RUNTIME
podc01   Ready    master   75d   v1.13.3   10.1.1.201    <none>        Ubuntu 18.04.2 LTS   4.15.0-45-generic   docker://18.9.3
podc02   Ready    <none>   69d   v1.13.3   10.1.1.202    <none>        Ubuntu 18.04.2 LTS   4.15.0-45-generic   docker://18.9.2
podc03   Ready    <none>   75d   v1.13.3   10.1.1.203    <none>        Ubuntu 18.04.2 LTS   4.15.0-45-generic   docker://18.9.2
podc04   Ready    <none>   75d   v1.13.3   10.1.1.204    <none>        Ubuntu 18.04.2 LTS   4.15.0-45-generic   docker://18.9.3
pods01   Ready    <none>   73d   v1.13.3   10.1.1.193    <none>        Ubuntu 18.04.2 LTS   4.15.0-45-generic   docker://18.9.2
pods02   Ready    <none>   70d   v1.13.3   10.1.1.234    <none>        Ubuntu 18.04.2 LTS   4.15.0-45-generic   docker://18.9.2
pods03   Ready    <none>   70d   v1.13.3   10.1.1.205    <none>        Ubuntu 18.04.2 LTS   4.15.0-45-generic   docker://18.9.3
pods04   Ready    <none>   70d   v1.13.3   10.1.1.112    <none>        Ubuntu 18.04.2 LTS   4.15.0-45-generic   docker://18.9.2
pods05   Ready    <none>   13d   v1.13.3   10.1.1.150    <none>        Ubuntu 18.04.2 LTS   4.15.0-45-generic   docker://18.9.2

 

參考

相關文章
相關標籤/搜索