kubernetes核心概念

摘抄自:  https://www.cnblogs.com/zhenyuyaodidiao/p/6500720.htmlhtml

一、基礎架構

 

1.1 Master

  Master節點上面主要由四個模塊組成:APIServer、scheduler、controller manager、etcd。node

    APIServer。APIServer負責對外提供RESTful的Kubernetes API服務,它是系統管理指令的統一入口,任何對資源進行增刪改查的操做都要交給APIServer處理後再提交給etcd。如架構圖中所示,kubectl(Kubernetes提供的客戶端工具,該工具內部就是對Kubernetes API的調用)是直接和APIServer交互的。mysql

    schedule。scheduler的職責很明確,就是負責調度pod到合適的Node上。若是把scheduler當作一個黑匣子,那麼它的輸入是pod和由多個Node組成的列表,輸出是Pod和一個Node的綁定,即將這個pod部署到這個Node上。Kubernetes目前提供了調度算法,可是一樣也保留了接口,用戶能夠根據本身的需求定義本身的調度算法。nginx

    controller manager。若是說APIServer作的是「前臺」的工做的話,那controller manager就是負責「後臺」的。每一個資源通常都對應有一個控制器,而controller manager就是負責管理這些控制器的。好比咱們經過APIServer建立一個pod,當這個pod建立成功後,APIServer的任務就算完成了。然後面保證Pod的狀態始終和咱們預期的同樣的重任就由controller manager去保證了。web

    etcd。etcd是一個高可用的鍵值存儲系統,Kubernetes使用它來存儲各個資源的狀態,從而實現了Restful的API。redis

1.2 Node

  每一個Node節點主要由三個模塊組成:kubelet、kube-proxy、runtime。算法

    runtime。runtime指的是容器運行環境,目前Kubernetes支持docker和rkt兩種容器。sql

    kube-proxy。該模塊實現了Kubernetes中的服務發現和反向代理功能。反向代理方面:kube-proxy支持TCP和UDP鏈接轉發,默認基於Round Robin算法將客戶端流量轉發到與service對應的一組後端pod。服務發現方面,kube-proxy使用etcd的watch機制,監控集羣中service和endpoint對象數據的動態變化,而且維護一個service到endpoint的映射關係,從而保證了後端pod的IP變化不會對訪問者形成影響。另外kube-proxy還支持session affinity。docker

    kubelet。Kubelet是Master在每一個Node節點上面的agent,是Node節點上面最重要的模塊,它負責維護和管理該Node上面的全部容器,可是若是容器不是經過Kubernetes建立的,它並不會管理。本質上,它負責使Pod得運行狀態與指望的狀態一致。數據庫

至此,Kubernetes的Master和Node就簡單介紹完了。下面咱們來看Kubernetes中的各類資源/對象。

 

二、Pod

  Pod 是Kubernetes的基本操做單元,也是應用運行的載體。整個Kubernetes系統都是圍繞着Pod展開的,好比如何部署運行Pod、如何保證Pod的數量、如何訪問Pod等。另外,Pod是一個或多個機關容器的集合,這能夠說是一大創新點,提供了一種容器的組合的模型。

2.1 基本操做

 

2.2 Pod與容器

  在Docker中,容器是最小的處理單元,增刪改查的對象是容器,容器是一種虛擬化技術,容器之間是隔離的,隔離是基於Linux Namespace實現的。而在Kubernetes中,Pod包含一個或者多個相關的容器,Pod能夠認爲是容器的一種延伸擴展,一個Pod也是一個隔離體,而Pod內部包含的一組容器又是共享的(包括PID、Network、IPC、UTS)。除此以外,Pod中的容器能夠訪問共同的數據捲來實現文件系統的共享。

2.3 鏡像

  在kubernetes中,鏡像的下載策略爲:

    Always:每次都下載最新的鏡像

    Never:只使用本地鏡像,從不下載

    IfNotPresent:只有當本地沒有的時候才下載鏡像

  Pod被分配到Node以後會根據鏡像下載策略進行鏡像下載,能夠根據自身集羣的特色來決定採用何種下載策略。不管何種策略,都要確保Node上有正確的鏡像可用。

2.4 其餘設置

  經過yaml文件,能夠在Pod中設置:

    啓動命令,如:spec-->containers-->command;

    環境變量,如:spec-->containers-->env-->name/value;

    端口橋接,如:spec-->containers-->ports-->containerPort/protocol/hostIP/hostPort(使用hostPort時須要注意端口衝突的問題,不過Kubernetes在調度Pod的時候會檢查宿主機端口是否衝突,好比當兩個Pod均要求綁定宿主機的80端口,Kubernetes將會將這兩個Pod分別調度到不一樣的機器上);

    Host網絡,一些特殊場景下,容器必需要以host方式進行網絡設置(如接收物理機網絡纔可以接收到的組播流),在Pod中也支持host網絡的設置,如:spec-->hostNetwork=true;

    數據持久化,如:spec-->containers-->volumeMounts-->mountPath;

    重啓策略,當Pod中的容器終止退出後,重啓容器的策略。這裏的所謂Pod的重啓,實際上的作法是容器的重建,以前容器中的數據將會丟失,若是須要持久化數據,那麼須要使用數據捲進行持久化設置。Pod支持三種重啓策略:Always(默認策略,當容器終止退出後,老是重啓容器)、OnFailure(當容器終止且異常退出時,重啓)、Never(從不重啓);

2.5 Pod生命週期

  Pod被分配到一個Node上以後,就不會離開這個Node,直到被刪除。當某個Pod失敗,首先會被Kubernetes清理掉,以後ReplicationController將會在其它機器上(或本機)重建Pod,重建以後Pod的ID發生了變化,那將會是一個新的Pod。因此,Kubernetes中Pod的遷移,實際指的是在新Node上重建Pod。如下給出Pod的生命週期圖。

 

 

 生命週期回調函數:PostStart(容器建立成功後調研該回調函數)、PreStop(在容器被終止前調用該回調函數)。如下示例中,定義了一個Pod,包含一個JAVA的web應用容器,其中設置了PostStart和PreStop回調函數。即在容器建立成功後,複製/sample.war到/app文件夾中。而在容器終止以前,發送HTTP請求到http://monitor.com:8080/waring,即向監控系統發送警告。具體示例以下:

………..
containers:
- image: sample:v2  
     name: war
     lifecycle:
      posrStart:
       exec:
         command:
          - 「cp- 「/sample.war」
          - 「/app」
      prestop:
       httpGet:
        host: monitor.com
        psth: /waring
        port: 8080
        scheme: HTTP

三、Replication Controller

  Replication Controller(RC)是Kubernetes中的另外一個核心概念,應用託管在Kubernetes以後,Kubernetes須要保證應用可以持續運行,這是RC的工做內容,它會確保任什麼時候間Kubernetes中都有指定數量的Pod在運行。在此基礎上,RC還提供了一些更高級的特性,好比滾動升級、升級回滾等。

3.1 RC與Pod的關聯——Label

  RC與Pod的關聯是經過Label來實現的。Label機制是Kubernetes中的一個重要設計,經過Label進行對象的弱關聯,能夠靈活地進行分類和選擇。對於Pod,須要設置其自身的Label來進行標識,Label是一系列的Key/value對,在Pod-->metadata-->labeks中進行設置。

  Label的定義是任一的,可是Label必須具備可標識性,好比設置Pod的應用名稱和版本號等。另外Lable是不具備惟一性的,爲了更準確的標識一個Pod,應該爲Pod設置多個維度的label。以下:

    "release" : "stable", "release" : "canary"

    "environment" : "dev", "environment" : "qa", "environment" : "production"

    "tier" : "frontend", "tier" : "backend", "tier" : "cache"

    "partition" : "customerA", "partition" : "customerB"

    "track" : "daily", "track" : "weekly"

  舉例,當你在RC的yaml文件中定義了該RC的selector中的label爲app:my-web,那麼這個RC就會去關注Pod-->metadata-->labeks中label爲app:my-web的Pod。修改了對應Pod的Label,就會使Pod脫離RC的控制。一樣,在RC運行正常的時候,若試圖繼續建立一樣Label的Pod,是建立不出來的。由於RC認爲副本數已經正常了,再多起的話會被RC刪掉的。

3.2 彈性伸縮

  彈性伸縮是指適應負載變化,以彈性可伸縮的方式提供資源。反映到Kubernetes中,指的是可根據負載的高低動態調整Pod的副本數量。調整Pod的副本數是經過修改RC中Pod的副本是來實現的,示例命令以下:

  擴容Pod的副本數目到10

$ kubectl scale relicationcontroller yourRcName --replicas=10

  縮容Pod的副本數目到1

$ kubectl scale relicationcontroller yourRcName --replicas=1

3.3 滾動升級

  滾動升級是一種平滑過渡的升級方式,經過逐步替換的策略,保證總體系統的穩定,在初始升級的時候就能夠及時發現、調整問題,以保證問題影響度不會擴大。Kubernetes中滾動升級的命令以下:

$ kubectl rolling-update my-rcName-v1 -f my-rcName-v2-rc.yaml --update-period=10s

升級開始後,首先依據提供的定義文件建立V2版本的RC,而後每隔10s(--update-period=10s)逐步的增長V2版本的Pod副本數,逐步減小V1版本Pod的副本數。升級完成以後,刪除V1版本的RC,保留V2版本的RC,及實現滾動升級。

  升級過程當中,發生了錯誤中途退出時,能夠選擇繼續升級。Kubernetes可以智能的判斷升級中斷以前的狀態,而後緊接着繼續執行升級。固然,也能夠進行回退,命令以下:

$ kubectl rolling-update my-rcName-v1 -f my-rcName-v2-rc.yaml --update-period=10s --rollback

回退的方式實際就是升級的逆操做,逐步增長V1.0版本Pod的副本數,逐步減小V2版本Pod的副本數。

3.4 新一代副本控制器replica set

  這裏所說的replica set,能夠被認爲 是「升級版」的Replication Controller。也就是說。replica set也是用於保證與label selector匹配的pod數量維持在指望狀態。區別在於,replica set引入了對基於子集的selector查詢條件,而Replication Controller僅支持基於值相等的selecto條件查詢。這是目前從用戶角度餚,二者惟一的顯著差別。 社區引入這一API的初衷是用於取代vl中的Replication Controller,也就是說.當v1版本被廢棄時,Replication Controller就完成了它的歷史使命,而由replica set來接管其工做。雖然replica set能夠被單獨使用,可是目前它多被Deployment用於進行pod的建立、更新與刪除。Deployment在滾動更新等方面提供了不少很是有用的功能,關於DeplOymCn的更多信息,讀者們能夠在後續小節中得到。

 

四、Job

  從程序的運行形態上來區分,咱們能夠將Pod分爲兩類:長時運行服務(jboss、mysql等)和一次性任務(數據計算、測試)。RC建立的Pod都是長時運行的服務,而Job建立的Pod都是一次性任務。

  在Job的定義中,restartPolicy(重啓策略)只能是Never和OnFailure。Job能夠控制一次性任務的Pod的完成次數(Job-->spec-->completions)和併發執行數(Job-->spec-->parallelism),當Pod成功執行指定次數後,即認爲Job執行完畢。

 

五、Service

  爲了適應快速的業務需求,微服務架構已經逐漸成爲主流,微服務架構的應用須要有很是好的服務編排支持。Kubernetes中的核心要素Service便提供了一套簡化的服務代理和發現機制,自然適應微服務架構。

5.1 原理

  在Kubernetes中,在受到RC調控的時候,Pod副本是變化的,對於的虛擬IP也是變化的,好比發生遷移或者伸縮的時候。這對於Pod的訪問者來講是不可接受的。Kubernetes中的Service是一種抽象概念,它定義了一個Pod邏輯集合以及訪問它們的策略,Service同Pod的關聯一樣是居於Label來完成的。Service的目標是提供一種橋樑, 它會爲訪問者提供一個固定訪問地址,用於在訪問時重定向到相應的後端,這使得非 Kubernetes原生應用程序,在無須爲Kubemces編寫特定代碼的前提下,輕鬆訪問後端。

  Service同RC同樣,都是經過Label來關聯Pod的。當你在Service的yaml文件中定義了該Service的selector中的label爲app:my-web,那麼這個Service會將Pod-->metadata-->labeks中label爲app:my-web的Pod做爲分發請求的後端。當Pod發生變化時(增長、減小、重建等),Service會及時更新。這樣一來,Service就能夠做爲Pod的訪問入口,起到代理服務器的做用,而對於訪問者來講,經過Service進行訪問,無需直接感知Pod。

  須要注意的是,Kubernetes分配給Service的固定IP是一個虛擬IP,並非一個真實的IP,在外部是沒法尋址的。真實的系統實現上,Kubernetes是經過Kube-proxy組件來實現的虛擬IP路由及轉發。因此在以前集羣部署的環節上,咱們在每一個Node上均部署了Proxy這個組件,從而實現了Kubernetes層級的虛擬轉發網絡。

5.2 Service代理外部服務

  Service不只能夠代理Pod,還能夠代理任意其餘後端,好比運行在Kubernetes外部Mysql、Oracle等。這是經過定義兩個同名的service和endPoints來實現的。示例以下:

redis-service.yaml

apiVersion: v1
kind: Service
metadata:
  name: redis-service
spec:
  ports:
  - port: 6379
    targetPort: 6379
    protocol: TCP

redis-endpoints.yaml

apiVersion: v1
kind: Endpoints
metadata:
  name: redis-service
subsets:
  - addresses:
    - ip: 10.0.251.145
    ports:
    - port: 6379
      protocol: TCP

基於文件建立完Service和Endpoints以後,在Kubernetes的Service中便可查詢到自定義的Endpoints。

[root@k8s-master demon]# kubectl describe service redis-service
Name:            redis-service
Namespace:        default
Labels:            <none>
Selector:        <none>
Type:            ClusterIP
IP:            10.254.52.88
Port:            <unset>    6379/TCP
Endpoints:        10.0.251.145:6379
Session Affinity:    None
No events.
[root@k8s-master demon]# etcdctl get /skydns/sky/default/redis-service
{"host":"10.254.52.88","priority":10,"weight":10,"ttl":30,"targetstrip":0}

5.3 Service內部負載均衡

  當Service的Endpoints包含多個IP的時候,及服務代理存在多個後端,將進行請求的負載均衡。默認的負載均衡策略是輪訓或者隨機(有kube-proxy的模式決定)。同時,Service上經過設置Service-->spec-->sessionAffinity=ClientIP,來實現基於源IP地址的會話保持。

5.4 發佈Service

  Service的虛擬IP是由Kubernetes虛擬出來的內部網絡,外部是沒法尋址到的。可是有些服務又須要被外部訪問到,例如web前段。這時候就須要加一層網絡轉發,即外網到內網的轉發。Kubernetes提供了NodePort、LoadBalancer、Ingress三種方式。

    NodePort,在以前的Guestbook示例中,已經延時了NodePort的用法。NodePort的原理是,Kubernetes會在每個Node上暴露出一個端口:nodePort,外部網絡能夠經過(任一Node)[NodeIP]:[NodePort]訪問到後端的Service。

    LoadBalancer,在NodePort基礎上,Kubernetes能夠請求底層雲平臺建立一個負載均衡器,將每一個Node做爲後端,進行服務分發。該模式須要底層雲平臺(例如GCE)支持。

    Ingress,是一種HTTP方式的路由轉發機制,由Ingress Controller和HTTP代理服務器組合而成。Ingress Controller實時監控Kubernetes API,實時更新HTTP代理服務器的轉發規則。HTTP代理服務器有GCE Load-Balancer、HaProxy、Nginx等開源方案。

5.5 servicede 自發性機制

  Kubernetes中有一個很重要的服務自發現特性。一旦一個service被建立,該service的service IP和service port等信息均可以被注入到pod中供它們使用。Kubernetes主要支持兩種service發現 機制:環境變量和DNS。

環境變量方式

  Kubernetes建立Pod時會自動添加全部可用的service環境變量到該Pod中,若有須要.這些環境變量就被注入Pod內的容器裏。須要注意的是,環境變量的注入只發送在Pod建立時,且不會被自動更新。這個特色暗含了service和訪問該service的Pod的建立時間的前後順序,即任何想要訪問service的pod都須要在service已經存在後建立,不然與service相關的環境變量就沒法注入該Pod的容器中,這樣先建立的容器就沒法發現後建立的service。

DNS方式

  Kubernetes集羣如今支持增長一個可選的組件——DNS服務器。這個DNS服務器使用Kubernetes的watchAPI,不間斷的監測新的service的建立併爲每一個service新建一個DNS記錄。若是DNS在整個集羣範圍內均可用,那麼全部的Pod都可以自動解析service的域名。Kube-DNS搭建及更詳細的介紹請見:基於Kubernetes集羣部署skyDNS服務

5.6 多個service如何避免地址和端口衝突

  此處設計思想是,Kubernetes經過爲每一個service分配一個惟一的ClusterIP,因此當使用ClusterIP:port的組合訪問一個service的時候,無論port是什麼,這個組合是必定不會發生重複的。另外一方面,kube-proxy爲每一個service真正打開的是一個絕對不會重複的隨機端口,用戶在service描述文件中指定的訪問端口會被映射到這個隨機端口上。這就是爲何用戶能夠在建立service時隨意指定訪問端口。

5.7 service目前存在的不足

  Kubernetes使用iptables和kube-proxy解析service的人口地址,在中小規模的集羣中運行良好,可是當service的數量超過必定規模時,仍然有一些小問題。首當其衝的即是service環境變量氾濫,以及service與使用service的pod二者建立時間前後的制約關係。目前來看,不少使用者在使用Kubernetes時每每會開發一套本身的Router組件來替代service,以便更好地掌控和定製這部分功能。

 

六、Deployment

  Kubernetes提供了一種更加簡單的更新RC和Pod的機制,叫作Deployment。經過在Deployment中描述你所指望的集羣狀態,Deployment Controller會將如今的集羣狀態在一個可控的速度下逐步更新成你所指望的集羣狀態。Deployment主要職責一樣是爲了保證pod的數量和健康,90%的功能與Replication Controller徹底同樣,能夠看作新一代的Replication Controller。可是,它又具有了Replication Controller以外的新特性:

    Replication Controller所有功能:Deployment繼承了上面描述的Replication Controller所有功能。

    事件和狀態查看:能夠查看Deployment的升級詳細進度和狀態。

    回滾:當升級pod鏡像或者相關參數的時候發現問題,可使用回滾操做回滾到上一個穩定的版本或者指定的版本。

    版本記錄: 每一次對Deployment的操做,都能保存下來,給予後續可能的回滾使用。

    暫停和啓動:對於每一次升級,都可以隨時暫停和啓動。

    多種升級方案:Recreate----刪除全部已存在的pod,從新建立新的; RollingUpdate----滾動升級,逐步替換的策略,同時滾動升級時,支持更多的附加參數,例如設置最大不可用pod數量,最小升級間隔時間等等。

6.1 滾動升級

  相比於RC,Deployment直接使用kubectl edit deployment/deploymentName 或者kubectl set方法就能夠直接升級(原理是Pod的template發生變化,例如更新label、更新鏡像版本等操做會觸發Deployment的滾動升級)。操做示例——首先 咱們一樣定義一個nginx-deploy-v1.yaml的文件,副本數量爲2:

apiVersion: extensions/v1beta1
kind: Deployment
metadata:
  name: nginx-deployment
spec:
  replicas: 3
  template:
    metadata:
      labels:
        app: nginx
    spec:
      containers:
      - name: nginx
        image: nginx:1.7.9
        ports:
        - containerPort: 80

建立deployment:

$ kubectl create -f nginx-deploy-v1.yaml --record
deployment "nginx-deployment" created
$ kubectl get deployments
NAME       DESIRED   CURRENT   UP-TO-DATE   AVAILABLE   AGE
nginx-deployment   3         0         0            0           1s
$ kubectl get deployments
NAME       DESIRED   CURRENT   UP-TO-DATE   AVAILABLE   AGE
nginx-deployment   3         3         3            3           18s

正常以後,將nginx的版本進行升級,從1.7升級到1.9。第一種方法,直接set鏡像:

$ kubectl set image deployment/nginx-deployment2 nginx=nginx:1.9
deployment "nginx-deployment2" image updated

第二種方法,直接edit:

$ kubectl edit deployment/nginx-deployment
deployment "nginx-deployment2" edited

查看Deployment的變動信息(如下信息得以保存,是建立時候加的「--record」這個選項起的做用):

$ kubectl rollout history deployment/nginx-deployment
deployments "nginx-deployment":
REVISION    CHANGE-CAUSE
          kubectl create -f docs/user-guide/nginx-deployment.yaml --record
          kubectl set image deployment/nginx-deployment nginx=nginx:1.9.1
          kubectl set image deployment/nginx-deployment nginx=nginx:1.91

$ kubectl rollout history deployment/nginx-deployment --revision=2
deployments "nginx-deployment" revision 2
  Labels:       app=nginx
          pod-template-hash=1159050644
  Annotations:  kubernetes.io/change-cause=kubectl set image deployment/nginx-deployment nginx=nginx:1.9.1
  Containers:
   nginx:
    Image:      nginx:1.9.1
    Port:       80/TCP
     QoS Tier:
        cpu:      BestEffort
        memory:   BestEffort
    Environment Variables:      <none>
  No volumes.

最後介紹下Deployment的一些基礎命令。

$ kubectl describe deployments  #查詢詳細信息,獲取升級進度
$ kubectl rollout pause deployment/nginx-deployment2  #暫停升級
$ kubectl rollout resume deployment/nginx-deployment2  #繼續升級
$ kubectl rollout undo deployment/nginx-deployment2  #升級回滾
$ kubectl scale deployment nginx-deployment --replicas 10  #彈性伸縮Pod數量

關於多重升級,舉例,當你建立了一個nginx1.7的Deployment,要求副本數量爲5以後,Deployment Controller會逐步的將5個1.7的Pod啓動起來;當啓動到3個的時候,你又發出更新Deployment中Nginx到1.9的命令;這時Deployment Controller會當即將已啓動的3個1.7Pod殺掉,而後逐步啓動1.9的Pod。Deployment Controller不會等到1.7的Pod都啓動完成以後,再依次殺掉1.7,啓動1.9。

 

七、Volume

  在Docker的設計實現中,容器中的數據是臨時的,即當容器被銷燬時,其中的數據將會丟失。若是須要持久化數據,須要使用Docker數據卷掛載宿主機上的文件或者目錄到容器中。在Kubernetes中,當Pod重建的時候,數據是會丟失的,Kubernetes也是經過數據卷掛載來提供Pod數據的持久化的。Kubernetes數據卷是對Docker數據卷的擴展,Kubernetes數據卷是Pod級別的,能夠用來實現Pod中容器的文件共享。目前,Kubernetes支持的數據卷類型以下:

    1)        EmptyDir

    2)        HostPath

    3)        GCE Persistent Disk

    4)        AWS Elastic Block Store

    5)        NFS

    6)        iSCSI

    7)        Flocker

    8)        GlusterFS

    9)        RBD

    10)    Git Repo

    11)    Secret

    12)    Persistent Volume Claim

    13)    Downward API

7.1本地數據卷

  EmptyDir、HostPath這兩種類型的數據卷,只能最用於本地文件系統。本地數據卷中的數據只會存在於一臺機器上,因此當Pod發生遷移的時候,數據便會丟失。該類型Volume的用途是:Pod中容器間的文件共享、共享宿主機的文件系統。

7.1.1 EmptyDir

  若是Pod配置了EmpyDir數據卷,在Pod的生命週期內都會存在,當Pod被分配到 Node上的時候,會在Node上建立EmptyDir數據卷,並掛載到Pod的容器中。只要Pod 存在,EmpyDir數據卷都會存在(容器刪除不會致使EmpyDir數據卷丟失數據),可是若是Pod的生命週期終結(Pod被刪除),EmpyDir數據卷也會被刪除,而且永久丟失。

  EmpyDir數據卷很是適合實現Pod中容器的文件共享。Pod的設計提供了一個很好的容器組合的模型,容器之間各司其職,經過共享文件目錄來完成交互,好比能夠經過一個專職日誌收集容器,在每一個Pod中和業務容器中進行組合,來完成日誌的收集和彙總。

7.1.2 HostPath

  HostPath數據卷容許將容器宿主機上的文件系統掛載到Pod中。若是Pod須要使用宿主機上的某些文件,可使用HostPath。

7.2網絡數據卷

  Kubernetes提供了不少類型的數據卷以集成第三方的存儲系統,包括一些很是流行的分佈式文件系統,也有在IaaS平臺上提供的存儲支持,這些存儲系統都是分佈式的,經過網絡共享文件系統,所以咱們稱這一類數據卷爲網絡數據卷。

  網絡數據卷可以知足數據的持久化需求,Pod經過配置使用網絡數據卷,每次Pod建立的時候都會將存儲系統的遠端文件目錄掛載到容器中,數據卷中的數據將被水久保存,即便Pod被刪除,只是除去掛載數據卷,數據卷中的數據仍然保存在存儲系統中,且當新的Pod被建立的時候,還是掛載一樣的數據卷。網絡數據捲包含如下幾種:NFS、iSCISI、GlusterFS、RBD(Ceph Block Device)、Flocker、AWS Elastic Block Store、GCE Persistent Disk

7.3 Persistent Volume和Persistent Volume Claim

  理解每一個存儲系統是一件複雜的事情,特別是對於普通用戶來講,有時候並不須要關心各類存儲實現,只但願可以安全可靠地存儲數據。Kubernetes中提供了Persistent Volume和Persistent Volume Claim機制,這是存儲消費模式。Persistent Volume是由系統管理員配置建立的一個數據卷(目前支持HostPath、GCE Persistent Disk、AWS Elastic Block Store、NFS、iSCSI、GlusterFS、RBD),它表明了某一類存儲插件實現;而對於普通用戶來講,經過Persistent Volume Claim可請求並得到合適的Persistent Volume,而無須感知後端的存儲實現。Persistent Volume和Persistent Volume Claim的關係其實相似於Pod和Node,Pod消費Node資源,Persistent Volume Claim則消費Persistent Volume資源。Persistent Volume和Persistent Volume Claim相互關聯,有着完整的生命週期管理:

    1)        準備:系統管理員規劃或建立一批Persistent Volume;

    2)        綁定:用戶經過建立Persistent Volume Claim來聲明存儲請求,Kubernetes發現有存儲請求的時候,就去查找符合條件的Persistent Volume(最小知足策略)。找到合適的就綁定上,找不到就一直處於等待狀態;

    3)        使用:建立Pod的時候使用Persistent Volume Claim;

    4)        釋放:當用戶刪除綁定在Persistent Volume上的Persistent Volume Claim時,Persistent Volume進入釋放狀態,此時Persistent Volume中還殘留着上一個Persistent Volume Claim的數據,狀態還不可用;

    5)        回收:是否的Persistent Volume須要回收才能再次使用。回收策略能夠是人工的也能夠是Kubernetes自動進行清理(僅支持NFS和HostPath)

7.4信息數據卷

  Kubernetes中有一些數據卷,主要用來給容器傳遞配置信息,咱們稱之爲信息數據卷,好比Secret(處理敏感配置信息,密碼、Token等)、Downward API(經過環境變量的方式告訴容器Pod的信息)、Git Repo(將Git倉庫下載到Pod中),都是將Pod的信息以文件形式保存,而後以數據卷方式掛載到容器中,容器經過讀取文件獲取相應的信息。

八、Pet Sets/StatefulSet

  K8s在1.3版本里發佈了Alpha版的PetSet功能。在雲原生應用的體系裏,有下面兩組近義詞;第一組是無狀態(stateless)、牲畜(cattle)、無名(nameless)、可丟棄(disposable);第二組是有狀態(stateful)、寵物(pet)、有名(having name)、不可丟棄(non-disposable)。RC和RS主要是控制提供無狀態服務的,其所控制的Pod的名字是隨機設置的,一個Pod出故障了就被丟棄掉,在另外一個地方重啓一個新的Pod,名字變了、名字和啓動在哪兒都不重要,重要的只是Pod總數;而PetSet是用來控制有狀態服務,PetSet中的每一個Pod的名字都是事先肯定的,不能更改。PetSet中Pod的名字的做用,是用來關聯與該Pod對應的狀態。

  對於RC和RS中的Pod,通常不掛載存儲或者掛載共享存儲,保存的是全部Pod共享的狀態,Pod像牲畜同樣沒有分別;對於PetSet中的Pod,每一個Pod掛載本身獨立的存儲,若是一個Pod出現故障,從其餘節點啓動一個一樣名字的Pod,要掛在上原來Pod的存儲繼續以它的狀態提供服務。

  適合於PetSet的業務包括數據庫服務MySQL和PostgreSQL,集羣化管理服務Zookeeper、etcd等有狀態服務。PetSet的另外一種典型應用場景是做爲一種比普通容器更穩定可靠的模擬虛擬機的機制。傳統的虛擬機正是一種有狀態的寵物,運維人員須要不斷地維護它,容器剛開始流行時,咱們用容器來模擬虛擬機使用,全部狀態都保存在容器裏,而這已被證實是很是不安全、不可靠的。使用PetSet,Pod仍然能夠經過漂移到不一樣節點提供高可用,而存儲也能夠經過外掛的存儲來提供高可靠性,PetSet作的只是將肯定的Pod與肯定的存儲關聯起來保證狀態的連續性。

 九、ConfigMap

  不少生產環境中的應用程序配置較爲複雜,可能須要多個config文件、命令行參數和環境變量的組合。而且,這些配置信息應該從應用程序鏡像中解耦出來,以保證鏡像的可移植性以及配置信息不被泄露。社區引入ConfigMap這個API資源來知足這一需求。
  ConfigMap包含了一系列的鍵值對,用於存儲被Pod或者系統組件(如controller)訪問的信息。這與secret的設計理念有殊途同歸之妙,它們的主要區別在於ConfigMap一般不用於存儲敏感信息,而只存儲簡單的文本信息。

十、Horizontal Pod Autoscaler

  自動擴展做爲一個長久的議題,一直爲人們津津樂道。系統可以根據負載的變化對計算資源的分配進行自動的擴增或者收縮,無疑是一個很是吸引人的特徵,它可以最大可能地減小費用或者其餘代價(如電力損耗)。自動擴展主要分爲兩種,其一爲水平擴展,針對於實例數目的增減;其二爲垂直擴展,即單個實例可使用的資源的增減。Horizontal Pod Autoscaler(HPA)屬於前者。

10.1 Horizontal Pod Autoscaler如何工做

  Horizontal Pod Autoscaler的操做對象是Replication Controller、ReplicaSet或Deployment對應的Pod,根據觀察到的CPU實際使用量與用戶的指望值進行比對,作出是否須要增減實例數量的決策。controller目前使用heapSter來檢測CPU使用量,檢測週期默認是30秒。

10.2 Horizontal Pod Autoscaler的決策策略

  在HPA Controller檢測到CPU的實際使用量以後,會求出當前的CPU使用率(實際使用量與pod 請求量的比率)。而後,HPA Controller會經過調整副本數量使得CPU使用率儘可能向指望值靠近.另外,考慮到自動擴展的決策可能須要一段時間纔會生效,甚至在短期內會引入一些噪聲. 例如當pod所須要的CPU負荷過大,從而運行一個新的pod進行分流,在建立的過程當中,系統的CPU使用量可能會有一個攀升的過程。因此,在每一次做出決策後的一段時間內,將再也不進行擴展決策。對於ScaleUp而言,這個時間段爲3分鐘,Scaledown爲5分鐘。再者HPA Controller容許必定範圍內的CPU使用量的不穩定,也就是說,只有當aVg(CurrentPodConsumption/Target低於0.9或者高於1.1時才進行實例調整,這也是出於維護系統穩定性的考慮。

相關文章
相關標籤/搜索