centos7上基於kubernetes的docker集羣管理

kubernetes和docker的做用這裏就不做介紹了,直接進入主題。node

本文的目的是搭建docker集羣,並使用kubernetes管理它們。docker

文中的軟件環境除了kubernetes和docker,還用到了etcd和flannel。etcd服務運行在master機器上與minion機器上的flannel配套使用,做用是使每臺minion上運行的centos

docker擁有不一樣的ip段,最終目的是使不一樣minion上正在運行的docker containner都有一個與別的任意一個containner(別的minion上運行的docker containner)不api

同樣的IP地址。若是不能理解能夠在網上搜一下etcd和flannel。微信

環境:網絡

centos7系統機器三臺:ide

    192.168.50.130: 用來安裝kubernetes masterthis

    192.168.50.131: 用做kubernetes minion (minion1)centos7

    192.168.50.132: 用做kubbernetes minion (minion2)spa

1、關閉系統運行的防火牆

若是系統開啓了防火牆則按以下步驟關閉防火牆(全部機器)

# systemctl stop firewalld
# systemctl disable firewalld

2、MASTER安裝配置

1. 安裝並配置Kubernetes master(yum 方式)

# yum -y install etcd kubernetes

    配置etcd,編輯/etc/etcd/etcd.conf。確保列出的這些項都配置正確而且沒有被註釋掉,下面的配置都是如此

ETCD_NAME=default
ETCD_DATA_DIR="/var/lib/etcd/default.etcd"
ETCD_LISTEN_CLIENT_URLS="http://0.0.0.0:2379"
ETCD_ADVERTISE_CLIENT_URLS="http://localhost:2379"

    配置kubernetes,編輯/etc/kubernetes/apiserver

複製代碼

KUBE_API_ADDRESS="--address=0.0.0.0"
KUBE_API_PORT="--port=8080"
KUBELET_PORT="--kubelet_port=10250"
KUBE_ETCD_SERVERS="--etcd_servers=http://127.0.0.1:2379"
KUBE_SERVICE_ADDRESSES="--service-cluster-ip-range=10.254.0.0/16"
KUBE_ADMISSION_CONTROL="--admission_control=NamespaceLifecycle,NamespaceExists,LimitRanger,SecurityContextDeny,ResourceQuota"
KUBE_API_ARGS=""

複製代碼

2. 啓動etcd, kube-apiserver, kube-controller-manager and kube-scheduler服務

# for SERVICES in etcd kube-apiserver kube-controller-manager kube-scheduler; do
    systemctl restart $SERVICES
    systemctl enable $SERVICES
    systemctl status $SERVICES 
done

3. etcd設置項(後面會被運行在minion上的flannel自動獲取並用來設置docker的IP地址)

# etcdctl mk /coreos.com/network/config '{"Network":"172.17.0.0/16"}'

    tips:/coreos.com/network/config只是配置項名稱,無需多慮

4. 至此master配置完成,運行kubectl get nodes能夠查看有多少minion在運行,以及其狀態。這裏咱們的minion還都沒有開始安裝配置,因此運行以後結果爲空

# kubectl get nodes
NAME             LABELS              STATUS

3、MINION安裝配置(每臺minion機器都按以下安裝配置)

1. 環境安裝和配置

# yum -y install docker-engine flannel kubernetes

    配置flannel,編輯/etc/sysconfig/flanneld

FLANNEL_ETCD="http://192.168.50.130:2379"

   配置kubernetes,編輯/etc/kubernetes/config

KUBE_MASTER="--master=http://192.168.50.130:8080"

    配置kubernetes,編輯/etc/kubernetes/kubelet(請使用每臺minion本身的IP地址好比:192.168.50.131代替下面的$LOCALIP)

KUBELET_ADDRESS="--address=0.0.0.0"
KUBELET_PORT="--port=10250"
# change the hostname to this host’s IP address
KUBELET_HOSTNAME="--hostname_override=$LOCALIP"
KUBELET_API_SERVER="--api_servers=http://192.168.50.130:8080"
KUBELET_ARGS=""

2. 準備啓動服務(若是原本機器上已經運行過docker的請看過來,沒有運行過的請忽略此步驟)

    運行ifconfig,查看機器的網絡配置狀況(有docker0)

複製代碼

# ::B2::2E:.  Bcast:.  Mask:.  Metric: errors: dropped: overruns: frame: errors: dropped: overruns: carrier: txqueuelen: ( B)  TX bytes: (

複製代碼

    warning:在運行過docker的機器上能夠看到有docker0,這裏在啓動服務以前須要刪掉docker0配置,在命令行運行:sudo ip link delete docker0

    這樣作的目的是重啓docker的時候由flannel給docker分配地址段。

3. 啓動服務

# for SERVICES in kube-proxy kubelet docker flanneld; do
    systemctl restart $SERVICES
    systemctl enable $SERVICES
    systemctl status $SERVICES 
done

    tips:在這裏我碰到一個奇怪的問題,啓動kubelet服務或者flannel服務會出問題而不能啓動,若是你也碰到相似問題。能夠嘗試卸載kubernetes,從新安裝配置一下

我是這麼解決的,重裝一下就一切正常了^_^

4、配置完成驗證安裝

    肯定兩臺minion(192.168.50.131和192.168.50.132)和一臺master(192.168.50.130)都已經成功的安裝配置而且服務都已經啓動了。

    切換到master機器上,運行命令kubectl get nodes 

# kubectl get nodes
NAME             LABELS                                  STATUS192.168.50.131   kubernetes.io/hostname=192.168.50.131   Ready192.168.50.132   kubernetes.io/hostname=192.168.50.132   Ready

    能夠看到配置的兩臺minion已經在master的node列表中了。若是想要更多的node,只須要按照minion的配置,配置更多的機器就能夠了。

 

    至此一個由kubernetes管理的docker集羣已經配置完成。下面一篇將會寫一下kubernetes控制minion運行docker container,關於kubernetes的Pod,Replication controller(rc),Service的一些東西。

好文要頂 關注我 收藏該文  

相關文章
相關標籤/搜索