Deployment部署文件詳解web
apiVersion: extensions/v1beta1 #接口版本 kind: Deployment #接口類型 metadata: name: cango-demo #Deployment名稱 namespace: cango-prd #命名空間 labels: app: cango-demo #標籤 spec: replicas: 3 strategy: rollingUpdate: ##因爲replicas爲3,則整個升級,pod個數在2-4個之間 maxSurge: 1 #滾動升級時會先啓動1個pod maxUnavailable: 1 #滾動升級時容許的最大Unavailable的pod個數 template: metadata: labels: app: cango-demo #模板名稱必填 sepc: #定義容器模板,該模板能夠包含多個容器 containers: - name: cango-demo #鏡像名稱 image: swr.cn-east-2.myhuaweicloud.com/cango-prd/cango-demo:0.0.1-SNAPSHOT #鏡像地址 command: [ "/bin/sh","-c","cat /etc/config/path/to/special-key" ] #啓動命令 args: #啓動參數 - '-storage.local.retention=$(STORAGE_RETENTION)' - '-storage.local.memory-chunks=$(STORAGE_MEMORY_CHUNKS)' - '-config.file=/etc/prometheus/prometheus.yml' - '-alertmanager.url=http://alertmanager:9093/alertmanager' - '-web.external-url=$(EXTERNAL_URL)' #若是command和args均沒有寫,那麼用Docker默認的配置。 #若是command寫了,但args沒有寫,那麼Docker默認的配置會被忽略並且僅僅執行.yaml文件的command(不帶任何參數的)。 #若是command沒寫,但args寫了,那麼Docker默認配置的ENTRYPOINT的命令行會被執行,可是調用的參數是.yaml中的args。 #若是若是command和args都寫了,那麼Docker默認的配置被忽略,使用.yaml的配置。 imagePullPolicy: IfNotPresent #若是不存在則拉取 livenessProbe: #表示container是否處於live狀態。若是LivenessProbe失敗,LivenessProbe將會通知kubelet對應的container不健康了。隨後kubelet將kill掉container,並根據RestarPolicy進行進一步的操做。默認狀況下LivenessProbe在第一次檢測以前初始化值爲Success,若是container沒有提供LivenessProbe,則也認爲是Success; httpGet: path: /health #若是沒有心跳檢測接口就爲/ port: 8080 scheme: HTTP initialDelaySeconds: 60 ##啓動後延時多久開始運行檢測 timeoutSeconds: 5 successThreshold: 1 failureThreshold: 5 readinessProbe: readinessProbe: httpGet: path: /health #若是沒有心跳檢測接口就爲/ port: 8080 scheme: HTTP initialDelaySeconds: 30 ##啓動後延時多久開始運行檢測 timeoutSeconds: 5 successThreshold: 1 failureThreshold: 5 resources: ##CPU內存限制 requests: cpu: 2 memory: 2048Mi limits: cpu: 2 memory: 2048Mi env: ##經過環境變量的方式,直接傳遞pod=自定義Linux OS環境變量 - name: LOCAL_KEY #本地Key value: value - name: CONFIG_MAP_KEY #局策略可以使用configMap的配置Key, valueFrom: configMapKeyRef: name: special-config #configmap中找到name爲special-config key: special.type #找到name爲special-config裏data下的key ports: - name: http containerPort: 8080 #對service暴露端口 volumeMounts: #掛載volumes中定義的磁盤 - name: log-cache mount: /tmp/log - name: sdb #普通用法,該卷跟隨容器銷燬,掛載一個目錄 mountPath: /data/media - name: nfs-client-root #直接掛載硬盤方法,如掛載下面的nfs目錄到/mnt/nfs mountPath: /mnt/nfs - name: example-volume-config #高級用法第1種,將ConfigMap的log-script,backup-script分別掛載到/etc/config目錄下的一個相對路徑path/to/...下,若是存在同名文件,直接覆蓋。 mountPath: /etc/config - name: rbd-pvc #高級用法第2中,掛載PVC(PresistentVolumeClaim) #使用volume將ConfigMap做爲文件或目錄直接掛載,其中每個key-value鍵值對都會生成一個文件,key爲文件名,value爲內容, volumes: # 定義磁盤給上面volumeMounts掛載 - name: log-cache emptyDir: {} - name: sdb #掛載宿主機上面的目錄 hostPath: path: /any/path/it/will/be/replaced - name: example-volume-config # 供ConfigMap文件內容到指定路徑使用 configMap: name: example-volume-config #ConfigMap中名稱 items: - key: log-script #ConfigMap中的Key path: path/to/log-script #指定目錄下的一個相對路徑path/to/log-script - key: backup-script #ConfigMap中的Key path: path/to/backup-script #指定目錄下的一個相對路徑path/to/backup-script - name: nfs-client-root #供掛載NFS存儲類型 nfs: server: 10.42.0.55 #NFS服務器地址 path: /opt/public #showmount -e 看一下路徑 - name: rbd-pvc #掛載PVC磁盤 persistentVolumeClaim: claimName: rbd-pvc1 #掛載已經申請的pvc磁盤