Deployment 使用web
Kubernetes提供了一種更加簡單的更新RC和Pod的機制,叫作Deployment。經過在Deployment中描述你所指望的集羣狀態,Deployment Controller會將如今的集羣狀態在一個可控的速度下逐步更新成你所指望的集羣狀態。Deployment主要職責一樣是爲了保證pod的數量和健康,90%的功能與Replication Controller徹底同樣,能夠看作新一代的Replication Controller。可是,它又具有了Replication Controller以外的新特性:Replication Controller所有功能:Deployment繼承了上面描述的Replication Controller所有功能。數據庫
#建立命令:kubectl create -f deployment.yaml --record #使用rollout history命令,查看Deployment的歷史信息:kubectl rollout history deployment cango-demo #使用rollout undo回滾到上一版本: kubectl rollout undo deployment cango-demo #使用–to-revision能夠回滾到指定版本: kubectl rollout undo deployment hello-deployment --to-revision=2
ConfigMap 配置api
在幾乎全部的應用開發中,都會涉及到配置文件的變動,好比說在web的程序中,須要鏈接數據庫,緩存甚至是隊列等等。
一些大公司專門開發了本身的一套配置管理中心,kubernetes也提供了本身的一套方案,即ConfigMap。kubernetes經過ConfigMap來實現對容器中應用的配置管理。緩存
apiVersion: v1 #接口版本 kind: ConfigMap #接口類型 metadata: name: special-config #Config名稱 namespace: cango-prd #命名空間 data: #鍵值對 special.how: very special.type: charm apiVersion: v1 kind: ConfigMap metadata: name: example-volume-config namespace: cango-prd data: backup-script: | xxxx自定義文件內容 log-script: | xxxx自定義文件內容
StorageClass bash
Kubernetes 集羣存儲 PV 支持 Static 靜態配置以及 Dynamic 動態配置,動態卷配置 (Dynamic provisioning) 能夠根據須要動態的建立存儲卷。服務器
Example: 定義Ceph做爲PV存儲池進行分配,每一個雲或存儲廠商品牌配置參數都不同,可是調用方式都是一致的app
apiVersion: storage.k8s.io/v1 kind: StorageClass metadata: name: rbd provisioner: kubernetes.io/rbd parameters: monitors: 10.142.21.21:6789,10.142.21.22:6789,10.142.21.23:6789 adminId: admin adminSecretName: ceph-secret-admin adminSecretNamespace: kube-system pool: rbd userId: admin userSecretName: ceph-secret-admin fsType: ext4 imageFormat: "1"
#建立從StorageClass的關聯的Ceph PV存儲rdb中申請一塊1G大小的PVC命名爲rdb-pvc1url
kind: PersistentVolumeClaim apiVersion: v1 metadata: name: rbd-pvc1 namespace: kube-system spec: storageClassName: rbd accessModes: - ReadWriteOnce resources: requests: storage: 1Gi
Deployment部署文件詳解spa
apiVersion: extensions/v1beta1 #接口版本 kind: Deployment #接口類型 metadata: name: cango-demo #Deployment名稱 namespace: cango-prd #命名空間 labels: app: cango-demo #標籤 spec: replicas: 3 strategy: rollingUpdate: ##因爲replicas爲3,則整個升級,pod個數在2-4個之間 maxSurge: 1 #滾動升級時會先啓動1個pod maxUnavailable: 1 #滾動升級時容許的最大Unavailable的pod個數 template: metadata: labels: app: cango-demo #模板名稱必填 sepc: #定義容器模板,該模板能夠包含多個容器 containers: - name: cango-demo #鏡像名稱 image: swr.cn-east-2.myhuaweicloud.com/cango-prd/cango-demo:0.0.1-SNAPSHOT #鏡像地址 command: [ "/bin/sh","-c","cat /etc/config/path/to/special-key" ] #啓動命令 args: #啓動參數 - '-storage.local.retention=$(STORAGE_RETENTION)' - '-storage.local.memory-chunks=$(STORAGE_MEMORY_CHUNKS)' - '-config.file=/etc/prometheus/prometheus.yml' - '-alertmanager.url=http://alertmanager:9093/alertmanager' - '-web.external-url=$(EXTERNAL_URL)' #若是command和args均沒有寫,那麼用Docker默認的配置。 #若是command寫了,但args沒有寫,那麼Docker默認的配置會被忽略並且僅僅執行.yaml文件的command(不帶任何參數的)。 #若是command沒寫,但args寫了,那麼Docker默認配置的ENTRYPOINT的命令行會被執行,可是調用的參數是.yaml中的args。 #若是若是command和args都寫了,那麼Docker默認的配置被忽略,使用.yaml的配置。 imagePullPolicy: IfNotPresent #若是不存在則拉取 livenessProbe: #表示container是否處於live狀態。若是LivenessProbe失敗,LivenessProbe將會通知kubelet對應的container不健康了。隨後kubelet將kill掉container,並根據RestarPolicy進行進一步的操做。默認狀況下LivenessProbe在第一次檢測以前初始化值爲Success,若是container沒有提供LivenessProbe,則也認爲是Success; httpGet: path: /health #若是沒有心跳檢測接口就爲/ port: 8080 scheme: HTTP initialDelaySeconds: 60 ##啓動後延時多久開始運行檢測 timeoutSeconds: 5 successThreshold: 1 failureThreshold: 5 readinessProbe: readinessProbe: httpGet: path: /health #若是沒有心跳檢測接口就爲/ port: 8080 scheme: HTTP initialDelaySeconds: 30 ##啓動後延時多久開始運行檢測 timeoutSeconds: 5 successThreshold: 1 failureThreshold: 5 resources: ##CPU內存限制 requests: cpu: 2 memory: 2048Mi limits: cpu: 2 memory: 2048Mi env: ##經過環境變量的方式,直接傳遞pod=自定義Linux OS環境變量 - name: LOCAL_KEY #本地Key value: value - name: CONFIG_MAP_KEY #局策略可以使用configMap的配置Key, valueFrom: configMapKeyRef: name: special-config #configmap中找到name爲special-config key: special.type #找到name爲special-config裏data下的key ports: - name: http containerPort: 8080 #對service暴露端口 volumeMounts: #掛載volumes中定義的磁盤 - name: log-cache mount: /tmp/log - name: sdb #普通用法,該卷跟隨容器銷燬,掛載一個目錄 mountPath: /data/media - name: nfs-client-root #直接掛載硬盤方法,如掛載下面的nfs目錄到/mnt/nfs mountPath: /mnt/nfs - name: example-volume-config #高級用法第1種,將ConfigMap的log-script,backup-script分別掛載到/etc/config目錄下的一個相對路徑path/to/...下,若是存在同名文件,直接覆蓋。 mountPath: /etc/config - name: rbd-pvc #高級用法第2中,掛載PVC(PresistentVolumeClaim) #使用volume將ConfigMap做爲文件或目錄直接掛載,其中每個key-value鍵值對都會生成一個文件,key爲文件名,value爲內容, volumes: # 定義磁盤給上面volumeMounts掛載 - name: log-cache emptyDir: {} - name: sdb #掛載宿主機上面的目錄 hostPath: path: /any/path/it/will/be/replaced - name: example-volume-config # 供ConfigMap文件內容到指定路徑使用 configMap: name: example-volume-config #ConfigMap中名稱 items: - key: log-script #ConfigMap中的Key path: path/to/log-script #指定目錄下的一個相對路徑path/to/log-script - key: backup-script #ConfigMap中的Key path: path/to/backup-script #指定目錄下的一個相對路徑path/to/backup-script - name: nfs-client-root #供掛載NFS存儲類型 nfs: server: 10.42.0.55 #NFS服務器地址 path: /opt/public #showmount -e 看一下路徑 - name: rbd-pvc #掛載PVC磁盤 persistentVolumeClaim: claimName: rbd-pvc1 #掛載已經申請的pvc磁盤
參考文獻:命令行
https://kubernetes.io/docs/concepts/workloads/controllers/deployment/
https://www.jianshu.com/p/6bc8e0ae65d1
http://ju.outofmemory.cn/entry/208362