一. 查看集羣信息
node
[root@k8s-master01 ~]
# kubectl cluster-info
[root@k8s-master01 ~]
# kubectl cluster-info dump
二. 查看各組件狀態
[root@k8s-master01 ~]
# kubectl -s http://localhost:8080 get componentstatuses
NAME STATUS MESSAGE ERROR
controller-manager Healthy ok
scheduler Healthy ok
etcd-0 Healthy {
"health"
:
"true"
}
或者
[root@k8s-master01 ~]
# kubectl -s http://172.16.60.220:8080 get componentstatuses
NAME STATUS MESSAGE ERROR
scheduler Healthy ok
controller-manager Healthy ok
etcd-0 Healthy {
"health"
:
"true"
}
三. GET信息
1) 查看節點 (k8s-master01 對應的是 172.16.60.220的主機名)
[root@k8s-master01 ~]
# kubectl get node #將命令中的node變爲nodes也是能夠的
NAME STATUS AGE
k8s-node01 Ready 1d
k8s-node02 Ready 1d
[root@k8s-master01 ~]
# kubectl -s http://k8s-master01:8080 get node #將命令中的node變爲nodes也是能夠的
NAME STATUS AGE
k8s-node01 Ready 1d
k8s-node02 Ready 1d
2) 查看pods清單(查看pod ip地址,下面命令加上
"-o wide"
)
[root@k8s-master01 ~]
# kubectl get pod #將pod變爲pods也能夠。若是有namespace,須要跟上"-n namespace名字" 或 "--all-namespaces"
NAME READY STATUS RESTARTS AGE
nginx-controller-d97wj 1
/1
Running 0 1h
nginx-controller-lf11n 1
/1
Running 0 1h
tomcat-controller-35kzb 1
/1
Running 0 18m
tomcat-controller-lsph4 1
/1
Running 0 18m
[root@k8s-master01 ~]
# kubectl -s http://k8s-master01:8080 get pod #將命令中的pod變爲pods也是能夠的
NAME READY STATUS RESTARTS AGE
nginx-controller-d97wj 1
/1
Running 0 1h
nginx-controller-lf11n 1
/1
Running 0 1h
tomcat-controller-35kzb 1
/1
Running 0 18m
tomcat-controller-lsph4 1
/1
Running 0 18m
3) 查看service清單
[root@k8s-master01 ~]
# kubectl get service #將命令中的service變爲services也是能夠的
NAME CLUSTER-IP EXTERNAL-IP PORT(S) AGE
kubernetes 172.16.0.1 <none> 443
/TCP
1d
nginx-service-clusterip 172.16.77.193 <none> 8001
/TCP
1h
nginx-service-nodeport 172.16.234.94 <nodes> 8000:32172
/TCP
59m
tomcat-service-clusterip 172.16.144.116 <none> 8801
/TCP
14m
tomcat-service-nodeport 172.16.183.234 <nodes> 8880:31960
/TCP
11m
[root@k8s-master01 ~]
# kubectl -s http://172.16.60.220:8080 get service #將命令中的service變爲services也是能夠的
NAME CLUSTER-IP EXTERNAL-IP PORT(S) AGE
kubernetes 172.16.0.1 <none> 443
/TCP
1d
nginx-service-clusterip 172.16.77.193 <none> 8001
/TCP
1h
nginx-service-nodeport 172.16.234.94 <nodes> 8000:32172
/TCP
1h
tomcat-service-clusterip 172.16.144.116 <none> 8801
/TCP
17m
tomcat-service-nodeport 172.16.183.234 <nodes> 8880:31960
/TCP
14m
或者 (後面的
sed
表示 打印奇數行)
[root@k8s-master01 ~]
# kubectl get services -o json|grep '"name":'|sed -n '1~2p'
"name"
:
"kubernetes"
,
"name"
:
"nginx-service-clusterip"
,
"name"
:
"nginx-service-nodeport"
,
"name"
:
"tomcat-service-clusterip"
,
"name"
:
"tomcat-service-nodeport"
,
4) 查看replicationControllers清單 (同理能夠將命令中的replicationControllers變爲replicationController也是能夠的)
[root@k8s-master01 ~]
# kubectl get replicationControllers
NAME DESIRED CURRENT READY AGE
nginx-controller 2 2 2 2h
tomcat-controller 2 2 2 1h
[root@k8s-master01 ~]
# kubectl -s http://172.16.60.220:8080 get replicationControllers
NAME DESIRED CURRENT READY AGE
nginx-controller 2 2 2 2h
tomcat-controller 2 2 2 1h
5) 查看rc和namespace
[root@k8s-master01 ~]
# kubectl get rc,namespace
NAME DESIRED CURRENT READY AGE
rc
/nginx-controller
2 2 2 2h
rc
/tomcat-controller
2 2 2 1h
NAME STATUS AGE
ns
/default
Active 1d
ns
/kube-system
Active 1d
6) 查看pod和svc(和service同樣)
[root@k8s-master01 ~]
# kubectl get pods,svc
NAME READY STATUS RESTARTS AGE
po
/nginx-controller-d97wj
1
/1
Running 0 2h
po
/nginx-controller-lf11n
1
/1
Running 0 2h
po
/tomcat-controller-35kzb
1
/1
Running 0 1h
po
/tomcat-controller-lsph4
1
/1
Running 0 1h
NAME CLUSTER-IP EXTERNAL-IP PORT(S) AGE
svc
/kubernetes
172.16.0.1 <none> 443
/TCP
1d
svc
/nginx-service-clusterip
172.16.77.193 <none> 8001
/TCP
2h
svc
/nginx-service-nodeport
172.16.234.94 <nodes> 8000:32172
/TCP
2h
svc
/tomcat-service-clusterip
172.16.144.116 <none> 8801
/TCP
1h
svc
/tomcat-service-nodeport
172.16.183.234 <nodes> 8880:31960
/TCP
1h
7) 以jison格式輸出pod的詳細信息.
[root@k8s-master01 ~]
# kubectl get pods
NAME READY STATUS RESTARTS AGE
nginx-controller-d97wj 1
/1
Running 0 2h
nginx-controller-lf11n 1
/1
Running 0 2h
tomcat-controller-35kzb 1
/1
Running 0 1h
tomcat-controller-lsph4 1
/1
Running 0 1h
注意下面命令中的pods的名稱能夠經過上面命令查看
[root@k8s-master01 ~]
# kubectl get po nginx-controller-d97wj -o json
{
"apiVersion"
:
"v1"
,
"kind"
:
"Pod"
,
"metadata"
: {
"annotations"
: {
...................
...................
"hostIP"
:
"172.16.60.222"
,
"phase"
:
"Running"
,
"podIP"
:
"192.168.100.2"
,
"startTime"
:
"2019-03-15T14:40:18Z"
}
}
還能夠輸出其它格式和方法(kubectl get -h查看幫助)
[root@k8s-master01 ~]
# kubectl get -h
8) 查看指定pod跑在哪一個node上
[root@k8s-master01 ~]
# kubectl get po nginx-controller-d97wj -o wide
NAME READY STATUS RESTARTS AGE IP NODE
nginx-controller-d97wj 1
/1
Running 0 2h 192.168.100.2 k8s-node02
9) 獲取指定json或ymal格式的KEY數據,custom-columns=XXXXX(自定義列名):.status.hostIP(以「點開始」,而後寫路徑就能夠)
注意: 下面命令中的nginx-controller-d97wj是pod單元名稱 (kubectl get pods 能夠查看pods)
[root@k8s-master01 ~]
# kubectl get po nginx-controller-d97wj -o custom-columns=HOST-IP:.status.hostIP,POD-IP:.status.podIP
HOST-IP POD-IP
172.16.60.222 192.168.100.2
10) describe方法
describe相似於get,一樣用於獲取resource的相關信息。不一樣的是,get得到的是更詳細的resource個性的詳細信息,describe得到的是resource集羣相關的信息。
describe命令同get相似,可是describe不支持-o選項,對於同一類型resource,describe輸出的信息格式,內容域相同。
須要注意: 若是發現是查詢某個resource的信息,使用get命令可以獲取更加詳盡的信息。可是若是想要查詢某個resource的狀態,如某個pod並非在running狀態,
這時須要獲取更詳盡的狀態信息時,就應該使用describe命令。
[root@k8s-master01 ~]
# kubectl describe po nginx-controller-d97wj
Name: nginx-controller-d97wj
Namespace: default
Node: k8s-node02
/172
.16.60.222
Start Time: Fri, 15 Mar 2019 22:40:18 +0800
Labels: name=nginx
Status: Running
IP: 192.168.100.2
Controllers: ReplicationController
/nginx-controller
Containers:
nginx:
Container ID: docker:
//8ae4502b4e62120322de98aa532e653d3d2e058ffbb0b842e0f265621bebbe61
Image: 172.16.60.220:5000
/nginx
Image ID: docker-pullable:
//172
.16.60.220:5000
/nginx
@sha256:7734a210432278817f8097acf2f72d20e2ccc7402a0509810c44b3a8bfe0094a
Port: 80
/TCP
State: Running
Started: Fri, 15 Mar 2019 22:40:19 +0800
Ready: True
Restart Count: 0
Volume Mounts: <none>
Environment Variables: <none>
Conditions:
Type Status
Initialized True
Ready True
PodScheduled True
No volumes.
QoS Class: BestEffort
Tolerations: <none>
No events.
11) create建立
kubectl命令用於根據文件或輸入建立集羣resource。若是已經定義了相應resource的yaml或son文件,直接kubectl create -f filename便可建立文件內定義的
resource。也能夠直接只用子命令[namespace
/secret/configmap/serviceaccount
]等直接建立相應的resource。從追蹤和維護的角度出發,建議使用json或
yaml的方式定義資源。
命令格式:
# kubectl create -f 文件名
12) replace更新替換資源
replace命令用於對已有資源進行更新、替換。如前面create中建立的nginx,當咱們須要更新resource的一些屬性的時候,若是修改副本數量,增長、修改label,
更改image版本,修改端口等。均可以直接修改原yaml文件,而後執行replace命令。
須要注意: 名字不能被更更新。另外,若是是更新label,原有標籤的pod將會與更新label後的rc斷開聯繫,有新label的rc將會建立指定副本數的新的pod,可是默認
並不會刪除原來的pod。因此此時若是使用get po將會發現pod數翻倍,進一步check會發現原來的pod已經不會被新rc控制,此處只介紹命令不詳談此問題,好奇者可自行實驗。
命令格式:
# kubectl replace -f nginx-rc.yaml
13) patch
若是一個容器已經在運行,這時須要對一些容器屬性進行修改,又不想刪除容器,或不方便經過replace的方式進行更新。kubernetes還提供了一種在容器運行時,直接
對容器進行修改的方式,就是patch命令。 如建立pod的label是app=nginx-2,若是在運行過程當中,須要把其label改成app=nginx-3。
這個patch命令以下:
[root@k8s-master01 ~]
# kubectl patch pod nginx-controller-d97wj -p '{"metadata":{"labels":{"app":"nginx-3"}}}'
"nginx-controller-d97wj"
patched
14) edit
edit提供了另外一種更新resource源的操做,經過edit可以靈活的在一個common的resource基礎上,發展出更過的significant resource。
例如,使用edit直接更新前面建立的pod的命令爲:
# kubectl edit po nginx-controller-d97wj
上面命令的效果等效於:
# kubectl get po nginx-controller-d97wj -o yaml >> /tmp/nginx-tmp.yaml
# vim /tmp/nginx-tmp.yaml // 這此文件裏作一些修改
# kubectl replace -f /tmp/nginx-tmp.yaml
15) Delete
根據resource名或label刪除resource。
# kubectl delete -f nginx-rc.yaml
# kubectl delete po nginx-controller-d97wj
# kubectl delete po nginx-controller-lf11n
16) apply
apply命令提供了比patch,edit等更嚴格的更新resource的方式。經過apply,用戶能夠將resource的configuration使用
source
control的方式維護在版本庫中。
每次有更新時,將配置文件push到server,而後使用kubectl apply將更新應用到resource。kubernetes會在引用更新前將當前配置文件中的配置同已經應用的配置
作比較,並只更新更改的部分,而不會主動更改任何用戶未指定的部分。
apply命令的使用方式同replace相同,不一樣的是,apply不會刪除原有resource,而後建立新的。apply直接在原有resource的基礎上進行更新。同時kubectl apply
還會resource中添加一條註釋,標記當前的apply。相似於git操做。
17) logs
logs命令用於顯示pod運行中,容器內程序輸出到標準輸出的內容。跟docker的logs命令相似。若是要得到
tail
-f 的方式,也可使用-f選項。
# kubectl logs nginx-controller-d97wj
18) rolling-update
rolling-update是一個很是重要的命令,對於已經部署而且正在運行的業務,rolling-update提供了不中斷業務的更新方式。rolling-update每次起一個新的pod,
等新pod徹底起來後刪除一箇舊的pod,而後再起一個新的pod替換舊的pod,直到替換掉全部的pod。
rolling-update須要確保新的版本有不一樣的name,Version和label,不然會報錯 。
# kubectl rolling-update nginx-controller -f nginx-rc.yaml
若是在升級過程當中,發現有問題還能夠中途中止update,並回滾到前面版本
# kubectl rolling-update nginx-controller --rollback
rolling-update還有不少其餘選項提供豐富的功能,如--update-period指定間隔週期,使用時可使用-h查看help信息.
19) scale (注意下面的nginx-controller 是在nginx-rc.yaml文件中定義的name名稱)
scale用於程序在負載加劇或縮小時副本進行擴容或縮小,如前面建立的nginx有兩個副本,能夠輕鬆的使用scale命令對副本數進行擴展或縮小。
擴展副本數到4:
# kubectl scale rc nginx-controller --replicas=4
從新縮減副本數到2:
# kubectl scale rc nginx-controller --replicas=2
20) autoscale
scale雖然可以很方便的對副本數進行擴展或縮小,可是仍然須要人工介入,不能實時自動的根據系統負載對副本數進行擴、縮。autoscale命令提供了自動根據pod負載
對其副本進行擴縮的功能。
autoscale命令會給一個rc指定一個副本數的範圍,在實際運行中根據pod中運行的程序的負載自動在指定的範圍內對pod進行擴容或縮容。如前面建立的nginx,能夠用
以下命令指定副本範圍在1~4
# kubectl autoscale rc nginx-controller --min=1 --max=4
21) attach
attach命令相似於docker的attach命令,能夠直接查看容器中以daemon形式運行的進程的輸出,效果相似於logs -f,退出查看使用ctrl-c。若是一個pod中有多個容器,
要查看具體的某個容器的的輸出,須要在pod名後使用-c containers name指定運行的容器。以下示例的命令爲查看kube-system namespace中的kube-dns-v9-rcfuk pod
中的skydns容器的輸出。
# kubectl attach kube-dns-v9-rcfuk -c skydns --namespace=kube-system
22)
exec
exec
命令一樣相似於docker的
exec
命令,爲在一個已經運行的容器中執行一條shell命令,若是一個pod容器中,有多個容器,須要使用-c選項指定容器。
23) run
相似於docker的run命令,直接運行一個image。
24) cordon, drain, uncordon
這三個命令是正式release的1.2新加入的命令,三個命令一塊兒介紹,是由於三個命令配合使用能夠實現節點的維護。在1.2以前,由於沒有相應的命令支持,若是要維護一個
節點,只能stop該節點上的kubelet將該節點退出集羣,是集羣不在將新的pod調度到該節點上。若是該節點上本生就沒有pod在運行,則不會對業務有任何影響。若是該節
點上有pod正在運行,kubelet中止後,master會發現該節點不可達,而將該節點標記爲notReady狀態,不會將新的節點調度到該節點上。同時,會在其餘節點上建立新的
pod替換該節點上的pod。這種方式雖然可以保證集羣的健壯性,可是任然有些暴力,若是業務只有一個副本,並且該副本正好運行在被維護節點上的話,可能仍然會形成業
務的短暫中斷。
1.2中新加入的這3個命令能夠保證維護節點時,平滑的將被維護節點上的業務遷移到其餘節點上,保證業務不受影響。以下圖所示是一個整個的節點維護的流程(爲了方便
demo增長了一些查看節點信息的操做):
1- 首先查看當前集羣全部節點狀態,能夠看到共四個節點都處於ready狀態;
2- 查看當前nginx兩個副本分別運行在d-node1和k-node2兩個節點上;
3- 使用cordon命令將d-node1標記爲不可調度;
4- 再使用kubectl get nodes查看節點狀態,發現d-node1雖然還處於Ready狀態,可是同時還被禁能了調度,這意味着新的pod將不會被調度到d-node1上。
5- 再查看nginx狀態,沒有任何變化,兩個副本仍運行在d-node1和k-node2上;
6- 執行drain命令,將運行在d-node1上運行的pod平滑的趕到其餘節點上;
7- 再查看nginx的狀態發現,d-node1上的副本已經被遷移到k-node1上;這時候就能夠對d-node1進行一些節點維護的操做,如升級內核,升級Docker等;
8- 節點維護完後,使用uncordon命令解鎖d-node1,使其從新變得可調度;8)檢查節點狀態,發現d-node1從新變回Ready狀態
# kubectl get nodes
# kubectl get po -o wide
# kubectl cordon d-node1
# kubectl get nodes
# kubectl get po -o wide
# kubectl drain d-node1
# kubectl get po -o wide
# kubectl uncordon
# kubectl uncordon d-node1
# kubectl get nodes
25) 查看某個pod重啓次數(這個是參考)
# kubectl get pod nginx-controller-d97wj --template="{{range .status.containerStatuses}}{{.name}}:{{.restartCount}}{{end}}"
26) 查看pod生命週期
[root@k8s-master01 ~]
# kubectl get pod nginx-controller-d97wj --template="{{.status.phase}}"
Running
===============================================================================================
經常使用命令-----------------------------------------------------------------
kubectl get pods
kubectl get rc
kubectl get service
kubectl get componentstatuses
kubectl get endpoints
kubectl cluster-info
kubectl create -f redis-master-controller.yaml
kubectl delete -f redis-master-controller.yaml
kubectl delete pod nginx-772ai
kubectl logs -f pods
/heapster-xxxxx
-n kube-system
#查看日誌
kubectl scale rc redis-slave --replicas=3
#修改RC的副本數量,來實現Pod的動態縮放
etcdctl cluster-health
#檢查網絡集羣健康狀態
etcdctl --endpoints=http:
//172
.16.60.220:2379 cluster-health
#帶有安全認證檢查網絡集羣健康狀態
etcdctl member list
etcdctl
set
/k8s/network/config
'{ "Network": "10.1.0.0/16" }'
etcdctl get
/k8s/network/config
基礎進階---------------------------------------------------------------
kubectl get services kubernetes-dashboard -n kube-system
#查看全部service
kubectl get deployment kubernetes-dashboard -n kube-system
#查看全部發布
kubectl get pods --all-namespaces
#查看全部pod
kubectl get pods -o wide --all-namespaces
#查看全部pod的IP及節點
kubectl get pods -n kube-system |
grep
dashboard
kubectl describe service
/kubernetes-dashboard
--namespace=
"kube-system"
kubectl describe pods
/kubernetes-dashboard-349859023-g6q8c
--namespace=
"kube-system"
#指定類型查看
kubectl describe pod nginx-772ai
#查看pod詳細信息
kubectl scale rc nginx --replicas=5
#動態伸縮
kubectl scale deployment redis-slave --replicas=5
#動態伸縮
kubectl scale --replicas=2 -f redis-slave-deployment.yaml
#動態伸縮
kubectl
exec
-it tomcat-controller-35kzb
/bin/bash
#進入容器
kubectl label nodes k8s-node01 zone=north
#增長節點lable值 spec.nodeSelector: zone: north, 指定pod在哪一個節點
kubectl get nodes -lzone
#獲取zone的節點
kubectl label pod tomcat-controller-35kzb role=master
#增長lable值 [key]=[value]
kubectl label pod tomcat-controller-35kzb role-
#刪除lable值
kubectl label pod tomcat-controller-35kzb role=backend --overwrite
#修改lable值
kubectl rolling-update redis-master -f redis-master-controller-v2.yaml
#配置文件滾動升級
kubectl rolling-update redis-master --image=redis-master:2.0
#命令升級
kubectl rolling-update redis-master --image=redis-master:1.0 --rollback
#pod版本回滾
yaml使用及命令----------------------------------------------------------
kubectl create -f nginx-deployment.yaml
#建立deployment資源
kubectl get deploy
#查看deployment
kubectl get rs
#查看ReplicaSet
kubectl get pods --show-labels
#查看pods全部標籤。能夠添加"-all-namespaces" 或者 "-n kube-system"表示查看全部命名空間或某一命名空間裏pods的標籤
kubectl get pods -l app=nginx
#根據標籤查看pods
kubectl
set
image deployment
/nginx-deployment
nginx=nginx:1.11
#滾動更新鏡像
或者
kubectl edit deployment
/nginx-deployment
或者
kubectl apply -f nginx-deployment.yaml
#也表示對yaml修改後進行更新操做,更新到kubernetes集羣配置中
kubectl rollout status deployment
/nginx-deployment
#實時觀察發佈狀態:
kubectl rollout
history
deployment
/nginx-deployment
#查看deployment歷史修訂版本
kubectl rollout
history
deployment
/nginx-deployment
--revision=3
kubectl rollout undo deployment
/nginx-deployment
#回滾到之前版本
kubectl rollout undo deployment
/nginx-deployment
--to-revision=3
kubectl scale deployment nginx-deployment --replicas=10
#擴容deployment的Pod副本數量
kubectl autoscale deployment nginx-deployment --min=10 --max=15 --cpu-percent=80
#設置啓動擴容/縮容
命名空間----------------------------------------------------------------
kubectl get namespace
#獲取k8s的命名空間
kubectl get pod --namespace =[命令空間名稱]
#獲取對應命名空間內的pod,"--namespace"能夠寫成"-c"
kubectl --namespace [命令空間名稱] logs [pod名稱] -c 容器名稱
#獲取對應namespace中對應pod的日誌,若是不加"-c 容器名稱",則默認查看的是該pod下第一個容器的日誌
pod維護示例:
查看某個命令空間下的pod
# kubectl get pods -n namespace
在沒有pod 的yaml文件時,強制重啓某個pod
# kubectl get pod podname -n namespace -o yaml | kubectl replace --force -f -
查看某個pod重啓次數(這個是參考)
# kubectl get pod podname -n namespace --template="{{range .status.containerStatuses}}{{.name}}:{{.restartCount}}{{end}}"
查看pod生命週期
# kubectl get pod podname --template="{{.status.phase}}"
查看kube-space命令空間下的pod
[root@m7-autocv-gpu01 ~]
# kubectl get pods -n kube-system -o wide|grep -E 'elasticsearch|fluentd|kibana'
elasticsearch-logging-0 1
/1
Running 0 5h9m 172.30.104.6 m7-autocv-gpu03 <none>
elasticsearch-logging-1 1
/1
Running 0 4h59m 172.30.232.8 m7-autocv-gpu02 <none>
fluentd-es-v2.2.0-mkkcf 1
/1
Running 0 5h9m 172.30.104.7 m7-autocv-gpu03 <none>
kibana-logging-f6fc77549-nlxfg 1
/1
Running 0 42s 172.30.96.7 m7-autocv-gpu01 <none>
[root@m7-autocv-gpu01 ~]
# kubectl get pod kibana-logging-f6fc77549-nlxfg -n kube-system -o yaml | kubectl replace --force -f -
pod
"kibana-logging-f6fc77549-d47nc"
deleted
pod
/kibana-logging-f6fc77549-d47nc
replaced
[root@m7-autocv-gpu01 ~]
# kubectl get pod kibana-logging-f6fc77549-nlxfg -n kube-system --template="{{range .status.containerStatuses}}{{.name}}:{{.restartCount}}{{end}}"
kibana-logging:0
[root@m7-autocv-gpu01 ~]
# kubectl get pod kibana-logging-f6fc77549-nlxfg -n kube-system --template="{{.status.phase}}"
Running