Consul集羣搭建

  近幾年隨着Docker容器技術、微服務等架構的興起,人們開始意識到服務發現的必要性。微服務架構簡單來講,是一種以一些微服務來替代開發單個大而全應用的方法, 每個小服務運行在本身的進程裏,並以輕量級的機制來通訊, 一般是 HTTP RESTful API。微服務強調小快靈, 任何一個相對獨立的功能服務再也不是一個模塊, 而是一個獨立的服務。那麼,當咱們須要訪問這個服務時,如何肯定它的地址呢?這時就須要服務發現了。html

  Consul 是 HashiCorp 公司推出的開源工具,用於實現分佈式系統的服務發現與配置。一般拿來和zookeeper、etcd這些服務註冊與發現的工具進行比較。Consul更像一個「全棧」解決方案,內置了服務註冊與發現,具備健康檢查、Key/Value存儲、多數據中心的功能。我的比較偏心他有三點:一、開箱即用,方便運維:安裝包僅包含一個可執行文件,方便部署,無需其餘依賴,與Docker等輕量級容器可無縫配合 。二、自帶ui界面,能夠經過web界面直接看到註冊的服務,更新K/V。三、採用GOSSIP協議進行集羣內成員的管理和消息的傳播,使用和etcd同樣的raft協議保證數據的一致性。node

  Consul提供的四個關鍵特性:linux

一、服務發現。提供HTTP和DNS兩種發現方式。web

二、健康監測。支持多種方式,HTTP、TCP、Docker、Shell腳本定製化監控。json

三、KV存儲。Key、Value的存儲方式。bootstrap

四、多數據中心。Consul支持多數據中心。vim

  固然Consul還有不少錦上添花的特性,好比:可視化Web界面配置模板「consul-template」等。瀏覽器

如下是consul ui的頁面展現:架構

39b900021a5c9f7e1078

consul ui界面運維

Consul集羣的搭建

集羣架構示意圖:

39bd000077704e6752ba

consul cluster架構

集羣角色

上圖是一個簡單的consul cluster的架構,Consul Cluster有Server和Client兩種角色。不論是Server仍是Client,統稱爲Agent,Consul Client是相對無狀態的,只負責轉發RPC到Server,資源開銷不多。Server是一個有一組擴展功能的代理,這些功能包括參與Raft選舉,維護集羣狀態,響應RPC查詢,與其餘數據中心交互WAN gossip和轉發查詢給leader或者遠程數據中心。

  在每一個數據中心,client和server是混合的。通常建議有3-5臺server。這是基於有故障狀況下的可用性和性能之間的權衡結果,由於越多的機器加入達成共識越慢,Server之間會選舉出一個leader。然而,並不限制client的數量,它們能夠很容易的擴展到數千或者數萬臺。

集羣搭建

  這裏以5臺機器搭建一個server集羣,分別爲:

172.30.100.1    consul01

172.30.100.2    consul02

172.30.100.3    consul03

172.30.100.4    consul04

172.30.100.5    consul05

一、建立consul安裝目錄,這裏放到/data/consul目錄下:

root@consul01# mkdir -p /data/consul/data

二、下載對應平臺和版本的consul軟件包並解壓,這裏以0.9.2版本爲例:

root@consul01# cd /data/consul

root@consul01# wget -c https://releases.hashicorp.com/consul/0.9.2/consul_0.9.2_linux_amd64.zip

root@consul01# unzip consul_0.9.2_linux_amd64.zip

官方下載源地址爲:https://releases.hashicorp.com/consul/?_ga=2.141719666.1717434336.1505055948-1038273419.1504238248,請下載本身對應的版本

三、建立consul的啓動配置文件:

root@consul01# vim consul_config.json

{

  "datacenter": "consul-cluster",

  "node_name": "consul01",

  "bind_addr": "172.30.100.1",

  "client_addr": "172.30.100.1",

  "server": true,

  "bootstrap_expect": 5,

  "data_dir": "/data/consul/data",

  "http_config": {

    "response_headers": {

      "Access-Control-Allow-Origin": "*"

    }

  },

  "log_level": "INFO",

  "enable_syslog": true,

  "ports": {

    "http": 8500,

    "dns": 8600,

    "serf_lan": 8301,

    "serf_wan": 8302

  },

  "enable_script_checks": true

}

關鍵參數解釋:

bind_addr: 同命令行的-bind參數,內部集羣通訊綁定的地址。默認是‘0.0.0.0’,若是有多塊網卡,須要指定,不然啓動報錯

client_addr:同命令行的-clinet參數,客戶端接口綁定的地址,默認是‘127.0.0.1’;

server:true指定consul agent的模式爲server模式;

bootstrap_expect:同命令行的-bootstrap-expect,集羣預期的server個數,這裏咱們有5臺server,設置爲5;不能和    bootstrap參數一同使用。

enable_syslog:啓用則consul的日誌會寫進系統的syslog裏;

enable_script_checks:是否啓用監控檢測腳本。

詳細配置參數解釋見官方連接:https://www.consul.io/docs/agent/options.html

其餘4個節點的配置,把node_name更改成本身的便可。

四、啓動consul agent

root@consul01# ./consul agent -config-file consul_config.json -ui

指定配置文件位置,並啓動ui界面。在其餘四個節點進行相同的操做

五、把agent加入到集羣

告訴第二個agent,加入到第一個agent裏:

root@consul02#  ./consul join -http-addr http://172.30.100.2:8500 172.30.100.1

在其他3個節點上,更改本身的http-addr,執行相同的操做,好比在consul03上執行:

root@consul03#  ./consul join -http-addr http://172.30.100.3:8500 172.30.100.1

特別提示:加入集羣的時候,一個consul agent只須要知道集羣中任意一個節點便可,加入到集羣以後,集羣節點之間會根據GOSSIP協議互相發現彼此的關係。

五、集羣檢查

  全部節點都啓動成功以後能夠查看集羣成員是否所有加入成功,任意節點上執行命令:

root@consul03#  ./consul members  http://172.30.100.3:8500

Node      Address             Status  Type    Build  Protocol  DC

consul01  172.30.100.1:8301  alive   server  0.9.2  2         consul-cluster

consul02  172.30.100.2:8301  alive   server  0.9.2  2         consul-cluster

consul03  172.30.100.3:8301  alive   server  0.9.2  2         consul-cluster

consul04  172.30.100.4:8301  alive   server  0.9.2  2         consul-cluster

consul05  172.30.100.5:8301  alive   server  0.9.2  2         consul-cluster

六、登錄WEB UI

瀏覽器中輸入http://172.30.100.3:8500,便可看到如上圖所示UI界面。

相關文章
相關標籤/搜索