因爲公司緩存方案改進,準備採用codis集羣做爲主要的緩存解決方案(codis:國內豌豆莢開發的redis集羣解決方案,已開源,github地址:https://github.com/CodisLabs/codis),codis集羣依賴於zookeeper集羣,本文介紹zookeeper集羣的實現。html
ZooKeeper是一個開放源碼的分佈式應用程序協調服務,它包含一個簡單的原語集,分佈式應用程序能夠基於它實現同步服務,配置維護和命名服務等。java
一、在zookeeper的集羣中,各個節點共有下面3種角色和4種狀態:node
角色:leader,follower,observer
狀態:leading,following,observing,lookinglinux
Zookeeper的核心是原子廣播,這個機制保證了各個Server之間的同步。實現這個機制的協議叫作Zab協議(ZooKeeper Atomic Broadcast protocol)。Zab協議有兩種模式,它們分別是恢復模式(Recovery選主)和廣播模式(Broadcast同步)。當服務啓動或者在領導者崩潰後,Zab就進入了恢復模式,當領導者被選舉出來,且大多數Server完成了和leader的狀態同步之後,恢復模式就結束了。狀態同步保證了leader和Server具備相同的系統狀態。git
爲了保證事務的順序一致性,zookeeper採用了遞增的事務id號(zxid)來標識事務。全部的提議(proposal)都在被提出的時候加上了zxid。實現中zxid是一個64位的數字,它高32位是epoch用來標識leader關係是否改變,每次一個leader被選出來,它都會有一個新的epoch,標識當前屬於那個leader的統治時期。低32位用於遞增計數。github
每一個Server在工做過程當中有4種狀態:redis
LOOKING:當前Server不知道leader是誰,正在搜尋。apache
LEADING:當前Server即爲選舉出來的leader。緩存
FOLLOWING:leader已經選舉出來,當前Server與之同步。服務器
OBSERVING:observer的行爲在大多數狀況下與follower徹底一致,可是他們不參加選舉和投票,而僅僅接受(observing)選舉和投票的結果。
主機名 | 系統 | IP地址 |
linux-node1 | CentOS release 6.8 | 192.168.1.148 |
linux-node2 | CentOS release 6.8 | 192.168.1.149 |
linux-node2 | CentOS release 6.8 | 192.168.1.150 |
Zookeeper運行須要java環境,須要安裝jdk,注:每臺服務器上面都須要安裝zookeeper、jdk,建議本地下載好須要的安裝包而後上傳到服務器上面,服務器上面下載速度太慢。
JDK下載地址:http://www.oracle.com/technetwork/java/javase/downloads/index.html
rpm -ivh jdk-8u101-linux-x64.rpm
Zookeeper連接:http://zookeeper.apache.org/
wget http://mirrors.cnnic.cn/apache/zookeeper/zookeeper-3.4.8/zookeeper-3.4.8.tar.gz -P /usr/local/src/ tar zxvf zookeeper-3.4.8.tar.gz -C /opt cd /opt && mv zookeeper-3.4.8 zookeeper cd zookeeper cp conf/zoo_sample.cfg conf/zoo.cfg
#把zookeeper加入到環境變量
echo -e "# append zk_env\nexport PATH=$PATH:/opt/zookeeper/bin" >> /etc/profile
注意:搭建zookeeper集羣時,必定要先中止已經啓動的zookeeper節點。
#修改事後的配置文件zoo.cfg,以下:
egrep -v "^#|^$" zoo.cfg
tickTime=2000 initLimit=10 syncLimit=5 dataLogDir=/opt/zookeeper/logs dataDir=/opt/zookeeper/data clientPort=2181 autopurge.snapRetainCount=500 autopurge.purgeInterval=24 server.1= 192.168.1.148:2888:3888 server.2= 192.168.1.149:2888:3888 server.3= 192.168.1.150:2888:3888
#建立相關目錄,三臺節點都須要
mkdir -p /opt/zookeeper/{logs,data}
#其他zookeeper節點安裝完成以後,同步配置文件zoo.cfg。
tickTime這個時間是做爲zookeeper服務器之間或客戶端與服務器之間維持心跳的時間間隔,也就是說每一個tickTime時間就會發送一個心跳。
initLimit這個配置項是用來配置zookeeper接受客戶端(這裏所說的客戶端不是用戶鏈接zookeeper服務器的客戶端,而是zookeeper服務器集羣中鏈接到leader的follower 服務器)初始化鏈接時最長能忍受多少個心跳時間間隔數。
當已經超過10個心跳的時間(也就是tickTime)長度後 zookeeper 服務器尚未收到客戶端的返回信息,那麼代表這個客戶端鏈接失敗。總的時間長度就是 10*2000=20秒。
syncLimit這個配置項標識leader與follower之間發送消息,請求和應答時間長度,最長不能超過多少個tickTime的時間長度,總的時間長度就是5*2000=10秒。
dataDir顧名思義就是zookeeper保存數據的目錄,默認狀況下zookeeper將寫數據的日誌文件也保存在這個目錄裏;
clientPort這個端口就是客戶端鏈接Zookeeper服務器的端口,Zookeeper會監聽這個端口接受客戶端的訪問請求;
server.A=B:C:D中的A是一個數字,表示這個是第幾號服務器,B是這個服務器的IP地址,C第一個端口用來集羣成員的信息交換,表示這個服務器與集羣中的leader服務器交換信息的端口,D是在leader掛掉時專門用來進行選舉leader所用的端口。
除了修改zoo.cfg配置文件外,zookeeper集羣模式下還要配置一個myid文件,這個文件須要放在dataDir目錄下。
這個文件裏面有一個數據就是A的值(該A就是zoo.cfg文件中server.A=B:C:D中的A),在zoo.cfg文件中配置的dataDir路徑中建立myid文件。
#在192.168.1.148服務器上面建立myid文件,並設置值爲1,同時與zoo.cfg文件裏面的server.1保持一致,以下
echo "1" > /opt/zookeeper/data/myid
#在192.168.1.149服務器上面建立myid文件,並設置值爲1,同時與zoo.cfg文件裏面的server.2保持一致,以下
echo "2" > /opt/zookeeper/data/myid
#在192.168.1.150服務器上面建立myid文件,並設置值爲1,同時與zoo.cfg文件裏面的server.3保持一致,以下
echo "3" > /opt/zookeeper/data/myid
到此,相關配置已完成
#linux-node一、linux-node二、linux-node3
/opt/zookeeper/bin/zkServer.sh start
注意:報錯排查
Zookeeper節點啓動不了可能緣由:zoo.cfg配置文件有誤、iptables沒關。
#linux-node1
#linux-node2
#linux-node3
#從上面能夠看出,linux-node1,linux-node3兩臺服務器zookeeper的狀態是follow模式,linux-node2這臺服務器zookeeper的狀態是leader模式。
Zookeeper集羣搭建完畢以後,能夠經過客戶端腳本鏈接到zookeeper集羣上面,對客戶端來講,zookeeper集羣是一個總體,鏈接到zookeeper集羣實際上感受在獨享整個集羣的服務。
#在linux-node1測試
經過上圖能夠看出整個zookeeper集羣已經搭建並測試完成。
#Zookeeper原理:
http://blog.csdn.net/wuliu_forever/article/details/52053557
http://www.cnblogs.com/luxiaoxun/p/4887452.html
本文轉載地址:https://www.linuxprobe.com/zookeeper-cluster-deploy.html