Docker Swarm羣集配置實戰——第一戰

Docker Swarm 和 Docker Compose 同樣,都是 Docker 官方容器編排項目,但不一樣的是,Docker Compose 是一個在單個服務器或主機上建立多個容器的工具,而 Docker Swarm 則能夠在多個服務器或主機上建立容器集羣服務,對於微服務的部署,顯然 Docker Swarm 會更加適合。node

從 Docker 1.12.0 版本開始,Docker Swarm 已經包含在 Docker 引擎中(docker swarm),而且已經內置了服務發現工具,咱們就不須要像以前同樣,再配置 Etcd 或者 Consul 來進行服務發現配置了。nginx

Docker Swarm集羣中有三個角色:manager(管理者);worker(實際工做者)以及service(服務)。web

在上面的三個角色中,其本質上與咱們公司的組織架構相似,有領導(manager),有搬磚的(worker),而領導下發給搬磚者的任務,就是Docker Swarm中的service(服務)。docker

須要注意的是,在一個Docker Swarm羣集中,每臺docker服務器的角色能夠都是manager,可是,不能夠都是worker,正所謂蛇無頭不行,不能夠羣龍無首,而且,參與羣集的全部主機名,千萬不能夠衝突。vim

1、環境準備服務器

主機名 IP 服務
node01 192.168.171.151 docker、manager
node02 192.168.171.150 docker、worker
node03 192.168.171.152 docker、worker

2、配置主機node01
如下操做,將初始化一個Swarm羣集,並指定node01的角色爲manager架構

[root@node01 ~]# ssh-keygen               # 在node01上配置免密登陸
[root@node01 ~]# tail -3 /etc/hosts
#三臺主機之間要互相解析(Swarm羣集也須要此配置)
192.168.171.151 node01
192.168.171.150 node02
192.168.171.152 node03
[root@node01 ~]# ssh-copy-id node02          # 將生成的祕鑰發送到node02
[root@node01 ~]# ssh-copy-id node03
[root@node01 ~]# scp /etc/hosts node02:/etc/   #將hosts文件發送到node02
[root@node01 ~]# scp /etc/hosts node03:/etc/   #將hosts文件發送到node03
#初始化一個集羣,並指定本身爲manager
[root@node01 ~]# docker swarm init --advertise-addr 192.168.171.151

指定本身爲manager初始化一個羣組後,則會隨着命令的執行成功而返回一系列的提示信息,這些提示信息給出的是,若是其餘節點須要加入此節點,須要執行的命令,直接對其進行復制,而後,在須要加入此羣集的主機上執行,便可成功加入羣集。
返回的提示信息以下
Docker Swarm羣集配置實戰——第一戰
3、配置node02及node03加入Swarm羣集ssh

#node02配置以下
[root@node02 ~]# docker swarm join --token SWMTKN-1-0s0r2bdyx0j9jmyrj0yn94vjzqs4gk21h6puszkfn8xoxoc2os-33amoli3h3zsk1k0982w93p07 192.168.171.151:2377
This node joined a swarm as a worker.
#node03配置以下
[root@node03 ~]# docker swarm join --token SWMTKN-1-0s0r2bdyx0j9jmyrj0yn94vjzqs4gk21h6puszkfn8xoxoc2os-33amoli3h3zsk1k0982w93p07 192.168.171.151:2377
This node joined a swarm as a worker.
[root@node01 ~]# docker node promote node02            # 將node02從worker升級爲manager

node02及03便以worker的角色加入到了羣集當中tcp

若node02或者node03要脫離這個羣集,那麼須要如下配置(這裏以node03爲例)ide

[root@node03 ~]# docker swarm leave 
[root@node01 ~]# docker node rm node03           # 在manager角色的服務器上移除node03
[root@node01 ~]# docker swarm leave -f         
#如果最後一個manager上進行刪除羣集,則須要加「-f」選項
#最後一個刪除後,這個羣集也就不存在了

4、搭建registry私有倉庫
在docker Swarm羣集中,私有倉庫並不影響其羣集的正常運行,只是公司的生產環境多數都是本身的私有倉庫,因此這裏模擬一下。

#運行一個registry倉庫容器
[root@node01 ~]# docker run -d --name registry --restart always -p 5000:5000 registry
[root@node01 ~]# vim /usr/lib/systemd/system/docker.service 
ExecStart=/usr/bin/dockerd -H unix:// --insecure-registry 192.168.171.151:5000          #定位到改行,指定私有倉庫IP及端口
[root@node01 ~]# systemctl daemon-reload         # 從新加載配置文件
[root@node01 ~]# systemctl restart docker         # 重啓使之生效
#node02及node03也須要指定私有倉庫的位置,因此執行下面的命令將更改後的docker配置文件複製過去
[root@node01 ~]# scp /usr/lib/systemd/system/docker.service node02:/usr/lib/systemd/system/         
[root@node01 ~]# scp /usr/lib/systemd/system/docker.service node03:/usr/lib/systemd/system/
#將docker的配置文件複製過去之後,須要重啓node02及03的docker服務
[root@node02 ~]# systemctl daemon-reload
[root@node02 ~]# systemctl restart docker

私有倉庫建立完成,測試是否能夠正常使用

#node01將nginx鏡像上傳到私有倉庫
[root@node01 ~]# docker tag nginx:latest 192.168.171.151:5000/zyz:latest
[root@node01 ~]# docker push 192.168.171.151:5000/zyz:latest 
#在node02上進行下載,測試是否能夠正常下載
[root@node02 ~]# docker pull 192.168.171.151:5000/zyz:latest

在上面搭建私有倉庫的過程,並無實現數據的持久化,若須要基於數據持久化搭建私有倉庫,可參考
5、node01部署docker Swarm羣集的web UI界面

[root@node01 ~]# docker run -d -p 8000:8080 -e HOST=172.16.171.151 -e PORT=8080 -v /var/run/docker.sock:/var/run/docker.sock  --name visualizer  dockersamples/visualizer
#執行上述命令後,便可客戶端訪問其8000訪問,能夠看到羣集內的節點信息
#若節點發生故障,則會當即檢測到

訪問node01的8000端口,便可看到如下界面,注意:該界面只能看,不能進行任何配置
Docker Swarm羣集配置實戰——第一戰
docker Swarm的羣集到這也算是基本完善了,接下來,開始展現該羣集,究竟能夠作些什麼?也就是到了配置其service服務階段。
6、docker Swarm羣集的service服務配置
一、在node01(必須在manager角色的主機)上,發佈一個任務,使用剛剛測試時上傳的nginx鏡像,運行六個容器

[root@node01 ~]# docker service create --replicas 6 --name zyz -p 80 192.168.171.151:5000/zyz:latest 
#「--replicas」選項就是用來指定要運行的容器數量

建立完成返回信息以下
Docker Swarm羣集配置實戰——第一戰
當運行六個容器副本後,能夠查看羣集的web UI界面,顯示以下
Docker Swarm羣集配置實戰——第一戰
注意:node03並無下載相應的鏡像,可是也會運行nginx服務,那麼就能夠得出一個結論:若docker主機沒有指定的鏡像,那麼它將會自動去下載相應的鏡像
能夠看到,在進行上述配置後,羣集中的三臺服務器基於nginx鏡像運行了兩個容器,共六個

[root@node01 ~]# docker service ls 
ID                  NAME                MODE                REPLICAS            IMAGE                             PORTS
qjqr2to6e4m1        zyz                 replicated          6/6                 192.168.171.151:5000/zyz:latest   *:30000->80/tcp

7、實現docker容器的擴容及縮容
何爲擴容?何爲縮容?無非就是在容器沒法承擔當前負載壓力的狀況下,擴增幾個同樣的容器,縮容呢?也就是在大量容器資源閒置的狀況下,減小几個同樣的容器而已。
一、下面是針對上述建立的6個nginx服務的容器的擴容及縮容
1)容器的擴容

[root@node01 ~]# docker service scale zyz=9         
 # 將運行的nginx容器擴容到9個

擴容後,其web UI界面顯示以下
Docker Swarm羣集配置實戰——第一戰
2)容器的縮容

#將9個nginx服務的容器縮減到3個
[root@node01 ~]# docker service scale zyz=3

縮容後,其UI界面顯示以下
Docker Swarm羣集配置實戰——第一戰
二、設置某個docker服務器不運行容器
在上述的配置中,若運行指定數量的容器,那麼將是羣集中的全部docker主機進行輪詢的方式運行,直到運行夠指定的容器數量,那麼,若是不想讓node01這個manager角色運行容器呢?(公司領導也不會去一線搬磚的嘛),能夠進行如下配置:

[root@node01 ~]# docker node update --availability drain node01
node01
#設置主機node01之後不運行容器,但已經運行的容器並不會中止
# 「--availability」選項後面共有三個選項可配置,以下
# 「active」:工做;「pause」:暫時不工做;「drain」:永久性的不工做

當node01不在運行容器後,他以前所運行的容器並不會就此中止,會以輪詢的方式運行到其餘羣集中的服務器上
Docker Swarm羣集配置實戰——第一戰
附加——docker Swarm羣集經常使用命令

[root@docker01 ~]# docker node ls    #查看羣集的信息(只能夠在manager角色的主機上查看)
[root@docker01 ~]# docker swarm join-token worker      #若是後期須要加入worker端,能夠執行此命令查看令牌(也就是加入時須要執行的命令)
[root@docker01 ~]# docker swarm join-token manager         #同上,若要加入manager端,則能夠執行這條命令查看令牌。
[root@docker01 ~]# docker service scale web05=6    #容器的動態擴容及縮容
[root@docker01 ~]# docker service ps web01       #查看建立的容器運行在哪些節點
[root@docker01 ~]# docker service ls        #查看建立的服務
#將docker03脫離這個羣集
[root@docker03 ~]# docker swarm leave        #docker03脫離這個羣集
[root@docker01 ~]# docker node rm docker03         #而後在manager角色的服務器上移除docker03
[root@docker01 ~]# docker node promote docker02    #將docker02從worker升級爲manager。
#升級後docker02狀態會爲Reachable
[root@docker01 ~]# docker node demote docker02    #將docker02從manager角色降級爲worker
[root@docker01 ~]# docker node update --availability drain docker01
#設置主機docker01之後不運行容器,但已經運行的容器並不會中止
[root@docker01 ~]# docker node update --label-add mem=max docker03
#更改docker03主機的標籤爲mem=max
[root@docker01 ~]# docker service update --replicas 8 --image 192.168.20.6:5000/lvjianzhao:v2.0 --container-label-add 'node.labels.mem == max' lvjianzhao05
#將服務升級爲8個容器,而且指定在mem=max標籤的主機上運行

docker Swarm總結

  • 參與羣集的主機名必定不能衝突,而且能夠互相解析對方的主機名;
  • 集羣內的全部節點能夠都是manager角色,可是不能夠都是worker角色;
  • 當指定運行的鏡像時,若是羣集中的節點本地沒有該鏡像,那麼它將會自動下載對應的鏡像;
  • 當羣集正常工做時,若一個運行着容器的docker服務器發生宕機,那麼,其所運行的全部容器,都將轉移到其餘正常運行的節點之上,並且,就算髮生宕機的服務器恢復正常運行,也不會再接管以前運行的容器;
相關文章
相關標籤/搜索