k8s集羣部署

 

 

1) 部署環境vue

  • 部署節點 x1 : 運行這份 ansible 腳本的節點
  • etcd節點 x3 : 注意etcd集羣必須是1,3,5,7...奇數個節點
  • master節點 x1 : 運行集羣主要組件
  • node節點 x3 : 真正應用部署的節點,根據須要增長機器配置和節點數

2)下載dockernode

wget download.yunwei.edu/shell/docker.tar.gz
ls
tar zxvf docker.tar.gz
ls
cd docker/
ls
bash docker.sh

 

 3)設置免密登錄而且配置號域名解析服務docker

172.16.254.20 reg.yunwei.edu      #此域名解析是爲了獲取docker版ansible的資源地址 192.168.253.9 cicd            #一個部署,三個節點,node1同時又是master節點
192.168.253.14 node1
192.168.253.11 node2
192.168.253.10 node3

 

4)下載並運行docker版ansibleshell

[root@cicd ~]# docker run -itd -v /etc/ansible:/etc/ansible -v /etc/kubernetes/:/etc/kubernetes/ -v /root/.kube:/root/.kube -v /usr/local/bin/:/usr/local/bin/ 1acb4fd5df5b  /bin/sh
WARNING: IPv4 forwarding is disabled. Networking will not work.

上述報錯解決方法:json

在下面文件內添加,而後重啓netowrkapi

  systemctl restart networkbash

[root@cicd ~]# cat /usr/lib/sysctl.d/00-system.conf

  net.ipv4.ip_forward=1網絡

 

5)進入剛剛下載ansible的容器。app

[root@cicd ~]# docker exec -it 36aac0dee157 /bin/sh / # ansible all -m ping 
 [WARNING]: Could not match supplied host pattern, ignoring: all

 [WARNING]: provided hosts list is empty, only localhost is available

 [WARNING]: No hosts matched, nothing to do

發現沒法ping通,這是由於沒有配置主機組以及取消配置文件中的host-key註釋。負載均衡

又由於咱們宿主機與容器創建了目錄映射,因此咱們這裏直接在宿主機之下作如下步驟

 

 

6)上傳k8s的壓縮包,而後解壓,進入kubernetes目錄。

wget http://download.yunwei.edu/shell/docker.tar.gz

[root@cicd kubernetes]# ls
bash ca.tar.gz harbor-offline-installer-v1.4.0.tgz image image.tar.gz     k8s197.tar.gz      kube-yunwei-197.tar.gz    scope.yaml sock-shop

 

7)解壓kube-yunwei-197.tar.gz壓縮包,並把解壓後目錄下面的內容所有移動到/etc/ansible/

   解壓k8s197.tar.gz壓縮包,並把解壓後文件所有移動到/etc/ansible/bin/目錄下

[root@cicd ansible]# ls
01.prepare.retry  02.etcd.yml    04.kube-master.yml  06.network.yml  ansible.cfg  example  manifests  tools
01.prepare.yml    03.docker.yml  05.kube-node.yml    99.clean.yml    bin          hosts    roles

   [root@cicd bin]# ls
   bridge cfssljson docker-containerd-ctr docker-proxy flannel kubectl loopback
   calicoctl docker docker-containerd-shim docker-runc host-local kubelet portmap
   cfssl docker-compose dockerd etcd kube-apiserver kube-proxy VERSION.md
   cfssl-certinfo docker-containerd docker-init etcdctl kube-controller-manager kube-scheduler

 

8)在/etc/ansible/目錄下建立一個hosts文件,並將example目錄下的樣本文件複製到此文件中。

[deploy]
192.168.253.9      #部署節點ip

#etcd集羣請提供以下NODE_NAME、NODE_IP變量,請注意etcd集羣必須是1,3,5,7...奇數個節點
[etcd]
192.168.253.14 NODE_NAME=etcd1 NODE_IP="192.168.253.14"
192.168.253.11 NODE_NAME=etcd2 NODE_IP="192.168.253.11"
192.168.253.10 NODE_NAME=etcd3 NODE_IP="192.168.253.10"

[kube-master]
192.168.253.14 NODE_IP="192.168..253.14"

[kube-node]
192.168.253.14 NODE_IP="192.168.253.14"
192.168.253.11 NODE_IP="192.168.253.11"
192.168.253.10 NODE_IP="192.168.253.10"

[all:vars]
# ---------集羣主要參數---------------
#集羣部署模式:allinone, single-master, multi-master
DEPLOY_MODE=single-master

#集羣 MASTER IP
MASTER_IP="192.168.253.14"

#集羣 APISERVER
KUBE_APISERVER="https://192.168.253.14:6443"      #master節點ip

#TLS Bootstrapping 使用的 Token,使用 head -c 16 /dev/urandom | od -An -t x | tr -d ' ' 生成
BOOTSTRAP_TOKEN="d18f94b5fa585c7110f56803d925d2e7"

# 集羣網絡插件,目前支持calico和flannel
CLUSTER_NETWORK="calico"

# 部分calico相關配置,更全配置能夠去roles/calico/templates/calico.yaml.j2自定義
# 設置 CALICO_IPV4POOL_IPIP=「off」,能夠提升網絡性能,條件限制詳見 05.安裝calico網絡組件.md
CALICO_IPV4POOL_IPIP="always"
# 設置 calico-node使用的host IP,bgp鄰居經過該地址創建,可手動指定端口"interface=eth0"或使用以下自動發現
IP_AUTODETECTION_METHOD="can-reach=113.5.5.5"

# 部分flannel配置,詳見roles/flannel/templates/kube-flannel.yaml.j2
FLANNEL_BACKEND="vxlan"

# 服務網段 (Service CIDR),部署前路由不可達,部署後集羣內使用 IP:Port 可達
SERVICE_CIDR="10.68.0.0/16"

# POD 網段 (Cluster CIDR),部署前路由不可達,**部署後**路由可達
CLUSTER_CIDR="172.20.0.0/16"

# 服務端口範圍 (NodePort Range)
NODE_PORT_RANGE="20000-40000"

# kubernetes 服務 IP (預分配,通常是 SERVICE_CIDR 中第一個IP)
CLUSTER_KUBERNETES_SVC_IP="10.68.0.1"

# 集羣 DNS 服務 IP (從 SERVICE_CIDR 中預分配)
CLUSTER_DNS_SVC_IP="10.68.0.2"

# 集羣 DNS 域名
CLUSTER_DNS_DOMAIN="cluster.local."

# etcd 集羣間通訊的IP和端口, **根據實際 etcd 集羣成員設置**
ETCD_NODES="etcd1=https://192.168.253.14:2380,etcd2=https://192.168.253.11:2380,etcd3=https://192.168.253.10:2380"

# etcd 集羣服務地址列表, **根據實際 etcd 集羣成員設置**
ETCD_ENDPOINTS="https://192.168.253.14:2379,https://192.168.253.11:2379,https://192.168.253.10:2379"

# 集羣basic auth 使用的用戶名和密碼
BASIC_AUTH_USER="admin"
BASIC_AUTH_PASS="admin"

# ---------附加參數--------------------
#默認二進制文件目錄
bin_dir="/usr/local/bin"      # /root改成/usr

#證書目錄
ca_dir="/etc/kubernetes/ssl"

#部署目錄,即 ansible 工做目錄
base_dir="/etc/ansible"

 

9)關閉防火牆,重啓docker

再次進入容器,cd到/etc/ansible查看

出現6個腳本文件以及其餘若干個文件

[root@cicd ansible]# docker exec -it ad5e6744151e /bin/sh
/ # cd /etc/ansible/
/etc/ansible # ls
01.prepare.retry    05.kube-node.yml    example
01.prepare.yml      06.network.yml      hosts
02.etcd.yml         99.clean.yml        manifests
03.docker.yml       ansible.cfg         roles
04.kube-master.yml  bin                 tools

 

10)在容器內執行01-05腳本

/etc/ansible # ansible-playbook 01.prepare.yml 
/etc/ansible # ansible-playbook 02.etcd.yml
/etc/ansible # ansible-playbook 03.docker.yml
/etc/ansible # ansible-playbook 04.kube-master.yml
/etc/ansible # ansible-playbook 05.kube-node.yml

 

11) 部署節點另開一個會話。其餘三個節點建立一個名爲image的目錄用於接收部署節點發送的鏡像包。

  執行如下命令,而後將image目錄下的全部鏡像所有發送給node1.node2.node3。

[root@cicd ~]# cd kubernetes
[root@cicd kubernetes]# ls
bash  ca.tar.gz  harbor-offline-installer-v1.4.0.tgz  image  image.tar.gz  k8s197.tar.gz  kube-yunwei-197.tar.gz  scope.yaml  sock-shop
[root@cicd kubernetes]# cd image
[root@cicd image]# ls
bash-completion-2.1-6.el7.noarch.rpm  coredns-1.0.6.tar.gz  heapster-v1.5.1.tar  kubernetes-dashboard-amd64-v1.8.3.tar.gz
calico                                grafana-v4.4.3.tar    influxdb-v1.3.3.tar  pause-amd64-3.1.tar

 

12)node1節點進入到image目錄,導入全部鏡像

[root@node2 ~]# cd image/
[root@node2 image]# ls
bash-completion-2.1-6.el7.noarch.rpm  grafana-v4.4.3.tar
calico-cni-v2.0.5.tar                 heapster-v1.5.1.tar
calico-kube-controllers-v2.0.4.tar    influxdb-v1.3.3.tar
calico-node-v3.0.6.tar                kubernetes-dashboard-amd64-v1.8.3.tar.gz
coredns-1.0.6.tar.gz                  pause-amd64-3.1.tar
[root@node2 image]# for ls in `ls` ;do docker load -i $ls ;done

 

13)查看鏡像是否導入成功

[root@node2 image]# docker images
REPOSITORY                                          TAG                 IMAGE ID            CREATED             SIZE
mariadb                                             latest              3ab4bbd66f97        8 hours ago         344MB
zabbix/zabbix-agent                                 latest              bc21cdfcc381        6 days ago          14.9MB
calico/node                                         v3.0.6              15f002a49ae8        14 months ago       248MB
calico/kube-controllers                             v2.0.4              f8e683e673ec        14 months ago       55.1MB
calico/cni                                          v2.0.5              b5e5532af766        14 months ago       69.1MB
coredns/coredns                                     1.0.6               d4b7466213fe        16 months ago       39.9MB
mirrorgooglecontainers/kubernetes-dashboard-amd64   v1.8.3              0c60bcf89900        16 months ago       102MB
mirrorgooglecontainers/heapster-amd64               v1.5.1              c41e77c31c91        16 months ago       75.3MB
mirrorgooglecontainers/pause-amd64                  3.1                 da86e6ba6ca1        18 months ago       742kB
mirrorgooglecontainers/heapster-influxdb-amd64      v1.3.3              577260d221db        21 months ago       12.5MB
mirrorgooglecontainers/heapster-grafana-amd64       v4.4.3              8cb3de219af7        21 months ago       152MB

其餘兩個節點操做相同。

 

14)在部署節點的容器內執行06腳本

/etc/ansible # ansible-playbook 06.network.yml 

 

15)進入manifests/coredns/目錄下,執行

  kubeclt  create  -f  .

/etc/ansible # cd manifests/
/etc/ansible/manifests # ls
coredns    dashboard  efk        heapster   ingress    kubedns
/etc/ansible/manifests # cd coredns/
/etc/ansible/manifests/coredns # ls
coredns.yaml
/etc/ansible/manifests/coredns # kubectl create -f .
serviceaccount "coredns" created
clusterrole "system:coredns" created
clusterrolebinding "system:coredns" created
configmap "coredns" created
deployment "coredns" created
service "coredns" created

 

16)部署節點的宿主機界面執行:

 kubectl get node -o wide
[root@cicd image]# kubectl get node -o wide
NAME             STATUS                     ROLES     AGE       VERSION   EXTERNAL-IP   OS-IMAGE                KERNEL-VERSION          CONTAINER-RUNTIME
192.168.253.10   Ready                      <none>    10m       v1.9.7    <none>        CentOS Linux 7 (Core)   3.10.0-693.el7.x86_64   docker://18.3.0
192.168.253.11   Ready                      <none>    10m       v1.9.7    <none>        CentOS Linux 7 (Core)   3.10.0-693.el7.x86_64   docker://18.3.0
192.168.253.14   Ready,SchedulingDisabled   <none>    12m       v1.9.7    <none>        CentOS Linux 7 (Core)   3.10.0-693.el7.x86_64   docker://18.3.0

 

17)查看名稱空間

  查看kube-system空間內的pod詳情

[root@cicd image]# kubectl get ns
NAME          STATUS    AGE
default       Active    14m
kube-public   Active    14m
kube-system   Active    14m
[root@cicd image]# kubectl get pod -n kube-system -o wide
NAME                                       READY     STATUS    RESTARTS   AGE       IP               NODE
calico-kube-controllers-754c88ccc8-86rht   1/1       Running   0          4m        192.168.253.11   192.168.253.11
calico-node-cvhcn                          2/2       Running   0          4m        192.168.253.10   192.168.253.10
calico-node-j5d66                          2/2       Running   0          4m        192.168.253.14   192.168.253.14
calico-node-qfm66                          2/2       Running   0          4m        192.168.253.11   192.168.253.11 coredns-6ff7588dc6-mbg9x                   1/1       Running   0          2m        172.20.104.1     192.168.253.11 coredns-6ff7588dc6-vzvbt                   1/1       Running   0          2m        172.20.135.1     192.168.253.10

 

18)在不一樣節點上嘗試ping通彼此節點的內部ip

[root@node1 image]# ping 172.20.135.1
PING 172.20.135.2 (172.20.135.2) 56(84) bytes of data.
64 bytes from 172.20.135.2: icmp_seq=1 ttl=63 time=0.813 ms
64 bytes from 172.20.135.2: icmp_seq=2 ttl=63 time=0.696 ms

若是ping通則證實k8s實驗部署成功。

 

19)cd到dashboard目錄下執行

kubectl create -f .
/etc/ansible/manifests # cd dashboard/
/etc/ansible/manifests/dashboard # ls
1.6.3                      kubernetes-dashboard.yaml  ui-read-rbac.yaml
admin-user-sa-rbac.yaml    ui-admin-rbac.yaml
/etc/ansible/manifests/dashboard # kubectl create -f .
serviceaccount "admin-user" created
clusterrolebinding "admin-user" created
secret "kubernetes-dashboard-certs" created
serviceaccount "kubernetes-dashboard" created
role "kubernetes-dashboard-minimal" created
rolebinding "kubernetes-dashboard-minimal" created
deployment "kubernetes-dashboard" created
service "kubernetes-dashboard" created
clusterrole "ui-admin" created
rolebinding "ui-admin-binding" created
clusterrole "ui-read" created
rolebinding "ui-read-binding" created

 

20)再次執行

kubectl get pod -n kube-system -o wide

發現多出一個容器
[root@cicd image]# kubectl get pod -n kube-system -o wide
NAME                                       READY     STATUS    RESTARTS   AGE       IP               NODE
calico-kube-controllers-754c88ccc8-86rht   1/1       Running   0          7m        192.168.253.11   192.168.253.11
calico-node-cvhcn                          2/2       Running   0          7m        192.168.253.10   192.168.253.10
calico-node-j5d66                          2/2       Running   0          7m        192.168.253.14   192.168.253.14
calico-node-qfm66                          2/2       Running   0          7m        192.168.253.11   192.168.253.11
coredns-6ff7588dc6-mbg9x                   1/1       Running   0          5m        172.20.104.1     192.168.253.11
coredns-6ff7588dc6-vzvbt                   1/1       Running   0          5m        172.20.135.1     192.168.253.10 kubernetes-dashboard-545b66db97-cbh9w      1/1       Running   0          1m        172.20.135.2     192.168.253.10

在node1節點ping172.168.135.2

[root@node1 image]# ping 172.20.135.2
PING 172.20.135.2 (172.20.135.2) 56(84) bytes of data.
64 bytes from 172.20.135.2: icmp_seq=1 ttl=63 time=0.813 ms
64 bytes from 172.20.135.2: icmp_seq=2 ttl=63 time=0.696 ms

 

若是可以ping通,執行如下命令

/etc/ansible/manifests/dashboard # kubectl cluster-info
Kubernetes master is running at https://192.168.253.14:6443
CoreDNS is running at https://192.168.253.14:6443/api/v1/namespaces/kube-system/services/coredns:dns/proxy
kubernetes-dashboard is running at https://192.168.253.14:6443/api/v1/namespaces/kube-system/services/https:kubernetes-dashboard:/proxy

 

21)複製加粗鏈接訪問網頁

登錄用戶名和密碼後,選中令牌,執行如下命令

[root@cicd image]# kubectl -n kube-system describe secret $(kubectl -n kube-system get secret|grep admin-user|awk '{print $1}')
Name:         admin-user-token-q46rv
Namespace:    kube-system
Labels:       <none>
Annotations:  kubernetes.io/service-account.name=admin-user
              kubernetes.io/service-account.uid=b31a5f5c-9283-11e9-a6e3-000c2966ee14

Type:  kubernetes.io/service-account-token

Data
====
ca.crt:     1359 bytes
namespace:  11 bytes
token:      eyJhbGciOiJSUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJrdWJlcm5ldGVzL3NlcnZpY2VhY2NvdW50Iiwia3ViZXJuZXRlcy5pby9zZXJ2aWNlYWNjb3VudC9uYW1lc3BhY2UiOiJrdWJlLXN5c3RlbSIsImt1YmVybmV0ZXMuaW8vc2VydmljZWFjY291bnQvc2VjcmV0Lm5hbWUiOiJhZG1pbi11c2VyLXRva2VuLXE0NnJ2Iiwia3ViZXJuZXRlcy5pby9zZXJ2aWNlYWNjb3VudC9zZXJ2aWNlLWFjY291bnQubmFtZSI6ImFkbWluLXVzZXIiLCJrdWJlcm5ldGVzLmlvL3NlcnZpY2VhY2NvdW50L3NlcnZpY2UtYWNjb3VudC51aWQiOiJiMzFhNWY1Yy05MjgzLTExZTktYTZlMy0wMDBjMjk2NmVlMTQiLCJzdWIiOiJzeXN0ZW06c2VydmljZWFjY291bnQ6a3ViZS1zeXN0ZW06YWRtaW4tdXNlciJ9.O5gqGeUNlwUYYDSL2bSolvCUoGmWjipaiqwrfBCbCroQ2SanUdP0w3SbJ0Vhb1Ddv6QswC2HeaGeHV_ideoH03RalKlJoJmCIaz0OpbvWQ6KaeDKLHqBxGyT4S-AHncF908aHr84JfY6GVIfJJL7P68EzMrFpOI24YC_PDfZvBm7zud7uhiFClWs8MMMmSt0YAWoakVQ4sPfyhlBX9rZLE1-2LobMio6g0vue9PJxzmJhZ7GrcOqHu__IpbmtPpwj-VHnvhDkU8dhC8617HyVU7xDsajZ89HmqSIVFtXrpiDTChDwBfMlx7QRmzu7bNNXyesQqDoyBJJgReW3M0evw

 

複製以上令牌內容到空格中,點擊進入如下頁面表明成功。

 

1、 Kubernetes  介紹:
 
 
kubernetes起源

 

Kubernetes (K8s) 是 Google 在 2014 年發佈的一個開源項目。
聽說 Google 的數據中內心運行着超過 20 億個容器,並且 Google 十年前就開始使用容器技術。 最初,Google 開發了一個叫 Borg 的系統(如今命令爲 Omega)來調度如此龐大數量的容器和工做負載。在積累了這麼多年的經驗後,Google 決定重寫這個容器管理系統,並將其貢獻到開源社區,讓全世界都能受益。
這個項目就是 Kubernetes。簡單的講,Kubernetes 是 Google Omega 的開源版本。
從 2014 年第一個版本發佈以來,Kubernetes 迅速得到開源社區的追捧,包括 Red Hat、VMware、Canonical 在內的不少有影響力的公司加入到開發和推廣的陣營。目前 Kubernetes 已經成爲發展最快、市場佔有率最高的容器編排引擎產品。 Kubernetes 一直在快速地開發和迭代。
 
Kubernetes 的幾個重要概念
在實踐以前,必須先學習 Kubernetes 的幾個重要概念,它們是組成 Kubernetes 集羣的基石。
Cluster 
Cluster 是計算、存儲和網絡資源的集合,Kubernetes 利用這些資源運行各類基於容器的應用。
Master 
Master 是 Cluster 的大腦,它的主要職責是調度,即決定將應用放在哪裏運行。Master 運行 Linux 操做系統,能夠是物理機或者虛擬機。爲了實現高可用,能夠運行多個 Master。
Node 
Node 的職責是運行容器應用。Node 由 Master 管理,Node 負責監控並彙報容器的狀態,並根據 Master 的要求管理容器的生命週期。Node 運行在 Linux 操做系統,能夠是物理機或者是虛擬機。
Pod 
Pod 是 Kubernetes 的最小工做單元。每一個 Pod 包含一個或多個容器。Pod 中的容器會做爲一個總體被 Master 調度到一個 Node 上運行。
Kubernetes 引入 Pod 主要基於下面兩個目的:
  1. 可管理性。
    有些容器天生就是須要緊密聯繫,一塊兒工做。Pod 提供了比容器更高層次的抽象,將它們封裝到一個部署單元中。Kubernetes 以 Pod 爲最小單位進行調度、擴展、共享資源、管理生命週期。
  2. 通訊和資源共享。
    Pod 中的全部容器使用同一個網絡 namespace,即相同的 IP 地址和 Port 空間。它們能夠直接用 localhost 通訊。一樣的,這些容器能夠共享存儲,當 Kubernetes 掛載 volume 到 Pod,本質上是將 volume 掛載到 Pod 中的每個容器。
Pods 有兩種使用方式:
  1. 運行單一容器。
    one-container-per-Pod  是 Kubernetes 最多見的模型,這種狀況下,只是將單個容器簡單封裝成 Pod。即使是隻有一個容器,Kubernetes 管理的也是 Pod 而不是直接管理容器。
  2. 運行多個容器。
    但問題在於: 哪些容器應該放到一個 Pod 中?  
    答案是:這些容器聯繫必須  很是緊密 ,並且須要  直接共享資源
舉個例子。
下面這個 Pod 包含兩個容器:一個 File Puller,一個是 Web Server。
 
File Puller 會按期從外部的 Content Manager 中拉取最新的文件,將其存放在共享的 volume 中。Web Server 從 volume 讀取文件,響應 Consumer 的請求。
這兩個容器是緊密協做的,它們一塊兒爲 Consumer 提供最新的數據;同時它們也經過 volume 共享數據。因此放到一個 Pod 是合適的。
再來看一個反例:是否須要將 Tomcat 和 MySQL 放到一個 Pod 中?
Tomcat 從 MySQL 讀取數據,它們之間須要協做,但還不至於須要放到一個 Pod 中一塊兒部署,一塊兒啓動,一塊兒中止。同時它們是之間經過 JDBC 交換數據,並非直接共享存儲,因此放到各自的 Pod 中更合適。
Controller 
Kubernetes 一般不會直接建立 Pod,而是經過 Controller 來管理 Pod 的。Controller 中定義了 Pod 的部署特性,好比有幾個副本,在什麼樣的 Node 上運行等。爲了知足不一樣的業務場景,Kubernetes 提供了多種 Controller,包括 Deployment、ReplicaSet、DaemonSet、StatefuleSet、Job 等,咱們逐一討論。
Deployment 是最經常使用的 Controller,好比前面在線教程中就是經過建立 Deployment 來部署應用的。Deployment 能夠管理 Pod 的多個副本,並確保 Pod 按照指望的狀態運行。
ReplicaSet 實現了 Pod 的多副本管理。使用 Deployment 時會自動建立 ReplicaSet,也就是說 Deployment 是經過 ReplicaSet 來管理 Pod 的多個副本,咱們一般不須要直接使用 ReplicaSet。
DaemonSet 用於每一個 Node 最多隻運行一個 Pod 副本的場景。正如其名稱所揭示的,DaemonSet 一般用於運行 daemon。
StatefuleSet 可以保證 Pod 的每一個副本在整個生命週期中名稱是不變的。而其餘 Controller 不提供這個功能,當某個 Pod 發生故障須要刪除並從新啓動時,Pod 的名稱會發生變化。同時 StatefuleSet 會保證副本按照固定的順序啓動、更新或者刪除。
Job 用於運行結束就刪除的應用。而其餘 Controller 中的 Pod 一般是長期持續運行。
Service 
Deployment 能夠部署多個副本,每一個 Pod 都有本身的 IP,外界如何訪問這些副本呢?
經過 Pod 的 IP 嗎?
要知道 Pod 極可能會被頻繁地銷燬和重啓,它們的 IP 會發生變化,用 IP 來訪問不太現實。
答案是 Service。
Kubernetes Service 定義了外界訪問一組特定 Pod 的方式。Service 有本身的 IP 和端口,Service 爲 Pod 提供了負載均衡。
Kubernetes 運行容器(Pod)與訪問容器(Pod)這兩項任務分別由 Controller 和 Service 執行。
Namespace
若是有多個用戶或項目組使用同一個 Kubernetes Cluster,如何將他們建立的 Controller、Pod 等資源分開呢?
答案就是 Namespace。
Namespace 能夠將一個物理的 Cluster 邏輯上劃分紅多個虛擬 Cluster,每一個 Cluster 就是一個 Namespace。不一樣 Namespace 裏的資源是徹底隔離的。
Kubernetes 默認建立了三個 Namespace。 default  -- 建立資源時若是不指定,將被放到這個 Namespace 中。 kube-system  -- Kubernetes 本身建立的系統資源將放到這個 Namespace 中。 kube-public -- Kubernetes 公共的系統資源將放到這個 Namespace 中。
相關文章
相關標籤/搜索