zookeeper原理,與集羣部署

Zookeeper集羣部署 是一個分佈式的,開放源碼的分佈式應用程序協調服務,是Google的Chubby一個開源的實現,它是集羣的管理者,監視着集羣中各個節點的狀態根據節點提交的反饋進行下一步合理操做。最終,將簡單易用的接口和性能高效、功能穩定的系統提供給用戶。 ZooKeeper提供了什麼? 1)文件系統 2)通知機制 Zookeeper文件系統 每一個子目錄項如 NameService 都被稱做爲znode,和文件系統同樣,咱們可以自由的增長、刪除znode,在一個znode下增長、刪除子znode,惟一的不一樣在於znode是能夠存儲數據的。 有四種類型的znode: 一、PERSISTENT-持久化目錄節點 客戶端與zookeeper斷開鏈接後,該節點依舊存在 二、PERSISTENT_SEQUENTIAL-持久化順序編號目錄節點 客戶端與zookeeper斷開鏈接後,該節點依舊存在,只是Zookeeper給該節點名稱進行順序編號 三、EPHEMERAL-臨時目錄節點 客戶端與zookeeper斷開鏈接後,該節點被刪除 四、EPHEMERAL_SEQUENTIAL-臨時順序編號目錄節點 客戶端與zookeeper斷開鏈接後,該節點被刪除,只是Zookeeper給該節點名稱進行順序編號 Zookeeper通知機制 客戶端註冊監聽它關心的目錄節點,當目錄節點發生變化(數據改變、被刪除、子目錄節點增長刪除)時,zookeeper會通知客戶端。 Zookeeper作了什麼? 1.命名服務 2.配置管理 3.集羣管理 4.分佈式鎖 5.隊列管理 Zookeeper命名服務 在zookeeper的文件系統裏建立一個目錄,即有惟一的path。在咱們使用tborg沒法肯定上游程序的部署機器時便可與下游程序約定好path,經過path即能互相探索發現。 Zookeeper的配置管理 程序老是須要配置的,若是程序分散部署在多臺機器上,要逐個改變配置就變得困難。如今把這些配置所有放到zookeeper上去,保存在 Zookeeper 的某個目錄節點中,而後全部相關應用程序對這個目錄節點進行監聽,一旦配置信息發生變化,每一個應用程序就會收到 Zookeeper 的通知,而後從 Zookeeper 獲取新的配置信息應用到系統中就好 Zookeeper集羣管理 所謂集羣管理無在意兩點:是否有機器退出和加入、選舉master。 對於第一點,全部機器約定在父目錄GroupMembers下建立臨時目錄節點,而後監聽父目錄節點的子節點變化消息。一旦有機器掛掉,該機器與 zookeeper的鏈接斷開,其所建立的臨時目錄節點被刪除,全部其餘機器都收到通知:某個兄弟目錄被刪除,因而,全部人都知道:它上船了。 新機器加入也是相似,全部機器收到通知:新兄弟目錄加入,highcount又有了,對於第二點,咱們稍微改變一下,全部機器建立臨時順序編號目錄節點,每次選取編號最小的機器做爲master就好。 Zookeeper分佈式鎖 有了zookeeper的一致性文件系統,鎖的問題變得容易。鎖服務能夠分爲兩類,一個是保持獨佔,另外一個是控制時序。 對於第一類,咱們將zookeeper上的一個znode看做是一把鎖,經過createznode的方式來實現。全部客戶端都去建立 /distribute_lock 節點,最終成功建立的那個客戶端也即擁有了這把鎖。用完刪除掉本身建立的distribute_lock 節點就釋放出鎖。 對於第二類, /distribute_lock 已經預先存在,全部客戶端在它下面建立臨時順序編號目錄節點,和選master同樣,編號最小的得到鎖,用完刪除,依次方便。node

Zookeeper隊列管理 兩種類型的隊列: 一、同步隊列,當一個隊列的成員都聚齊時,這個隊列纔可用,不然一直等待全部成員到達。 二、隊列按照 FIFO 方式進行入隊和出隊操做。 第一類,在約定目錄下建立臨時目錄節點,監聽節點數目是不是咱們要求的數目。 第二類,和分佈式鎖服務中的控制時序場景基本原理一致,入列有編號,出列按編號。 分佈式與數據複製 Zookeeper做爲一個集羣提供一致的數據服務,天然,它要在全部機器間作數據複製。數據複製的好處: 一、容錯:一個節點出錯,不致於讓整個系統中止工做,別的節點能夠接管它的工做; 二、提升系統的擴展能力 :把負載分佈到多個節點上,或者增長節點來提升系統的負載能力;算法

三、提升性能:讓客戶端本地訪問就近的節點,提升用戶訪問速度。 從客戶端讀寫訪問的透明度來看,數據複製集羣系統分下面兩種: 一、寫主(WriteMaster) :對數據的修改提交給指定的節點。讀無此限制,能夠讀取任何一個節點。這種狀況下客戶端須要對讀與寫進行區別,俗稱讀寫分離; 二、寫任意(Write Any):對數據的修改可提交給任意的節點,跟讀同樣。這種狀況下,客戶端對集羣節點的角色與變化透明。 對zookeeper來講,它採用的方式是寫任意。經過增長機器,它的讀吞吐能力和響應能力擴展性很是好,而寫,隨着機器的增多吞吐能力確定降低(這也是它創建observer的緣由),而響應能力則取決於具體實現方式,是延遲複製保持最終一致性,仍是當即複製快速響應。 Zookeeper角色描述ubuntu

Zookeeper與客戶端服務器

Zookeeper設計目的 1.最終一致性:client不論鏈接到哪一個Server,展現給它都是同一個視圖,這是zookeeper最重要的性能。 2.可靠性:具備簡單、健壯、良好的性能,若是消息被到一臺服務器接受,那麼它將被全部的服務器接受。 3.實時性:Zookeeper保證客戶端將在一個時間間隔範圍內得到服務器的更新信息,或者服務器失效的信息。但因爲網絡延時等緣由,Zookeeper不能保證兩個客戶端能同時獲得剛更新的數據,若是須要最新數據,應該在讀數據以前調用sync()接口。 4.等待無關(wait-free):慢的或者失效的client不得干預快速的client的請求,使得每一個client都能有效的等待。 5.原子性:更新只能成功或者失敗,沒有中間狀態。 6.順序性:包括全局有序和偏序兩種:全局有序是指若是在一臺服務器上消息a在消息b前發佈,則在全部Server上消息a都將在消息b前被髮布;偏序是指若是一個消息b在消息a後被同一個發送者發佈,a必將排在b前面。 Zookeeper工做原理 Zookeeper 的核心是原子廣播,這個機制保證了各個Server之間的同步。實現這個機制的協議叫作Zab協議。Zab協議有兩種模式,它們分別是恢復模式(選主)和廣播模式(同步)。當服務啓動或者在領導者崩潰後,Zab就進入了恢復模式,當領導者被選舉出來,且大多數Server完成了和 leader的狀態同步之後,恢復模式就結束了。狀態同步保證了leader和Server具備相同的系統狀態。 爲了保證事務的順序一致性,zookeeper採用了遞增的事務id號(zxid)來標識事務。全部的提議(proposal)都在被提出的時候加上了zxid。實現中zxid是一個64位的數字,它高32位是epoch用來標識leader關係是否改變,每次一個leader被選出來,它都會有一個新的epoch,標識當前屬於那個leader的統治時期。低32位用於遞增計數。 Zookeeper 下 Server工做狀態 每一個Server在工做過程當中有三種狀態: LOOKING:當前Server不知道leader是誰,正在搜尋 LEADING:當前Server即爲選舉出來的leader FOLLOWING:leader已經選舉出來,當前Server與之同步 Zookeeper選主流程(basic paxos) 當leader崩潰或者leader失去大多數的follower,這時候zk進入恢復模式,恢復模式須要從新選舉出一個新的leader,讓全部的Server都恢復到一個正確的狀態。Zk的選舉算法有兩種:一種是基於basic paxos實現的,另一種是基於fast paxos算法實現的。系統默認的選舉算法爲fast paxos。 1.選舉線程由當前Server發起選舉的線程擔任,其主要功能是對投票結果進行統計,並選出推薦的Server; 2.選舉線程首先向全部Server發起一次詢問(包括本身); 3.選舉線程收到回覆後,驗證是不是本身發起的詢問(驗證zxid是否一致),而後獲取對方的id(myid),並存儲到當前詢問對象列表中,最後獲取對方提議的leader相關信息(id,zxid),並將這些信息存儲到當次選舉的投票記錄表中; 4.收到全部Server回覆之後,就計算出zxid最大的那個Server,並將這個Server相關信息設置成下一次要投票的Server; 5.線程將當前zxid最大的Server設置爲當前Server要推薦的Leader,若是此時獲勝的Server得到n/2 + 1的Server票數,設置當前推薦的leader爲獲勝的Server,將根據獲勝的Server相關信息設置本身的狀態,不然,繼續這個過程,直到leader被選舉出來。 經過流程分析咱們能夠得出:要使Leader得到多數Server的支持,則Server總數必須是奇數2n+1,且存活的Server的數目不得少於n+1. 每一個Server啓動後都會重複以上流程。在恢復模式下,若是是剛從崩潰狀態恢復的或者剛啓動的server還會從磁盤快照中恢復數據和會話信息,zk會記錄事務日誌並按期進行快照,方便在恢復時進行狀態恢復。選主的具體流程圖所示:網絡

Zookeeper選主流程(fast paxos) fast paxos流程是在選舉過程當中,某Server首先向全部Server提議本身要成爲leader,當其它Server收到提議之後,解決epoch和 zxid的衝突,並接受對方的提議,而後向對方發送接受提議完成的消息,重複這個流程,最後必定能選舉出Leader。session

Zookeeper同步流程 選完Leader之後,zk就進入狀態同步過程。分佈式

  1. Leader等待server鏈接; 2 .Follower鏈接leader,將最大的zxid發送給leader; 3 .Leader根據follower的zxid肯定同步點; 4 .完成同步後通知follower 已經成爲uptodate狀態; 5 .Follower收到uptodate消息後,又能夠從新接受client的請求進行服務了。

ookeeper工做流程-Leader 1 .恢復數據; 2 .維持與Learner的心跳,接收Learner請求並判斷Learner的請求消息類型; 3 .Learner的消息類型主要有PING消息、REQUEST消息、ACK消息、REVALIDATE消息,根據不一樣的消息類型,進行不一樣的處理。 PING 消息是指Learner的心跳信息; REQUEST消息是Follower發送的提議信息,包括寫請求及同步請求; ACK消息是 Follower的對提議的回覆,超過半數的Follower經過,則commit該提議; REVALIDATE消息是用來延長SESSION有效時間。性能

Zookeeper工做流程-Follower Follower主要有四個功能: 1.向Leader發送請求(PING消息、REQUEST消息、ACK消息、REVALIDATE消息); 2.接收Leader消息並進行處理; 3.接收Client的請求,若是爲寫請求,發送給Leader進行投票; 4.返回Client結果。 Follower的消息循環處理以下幾種來自Leader的消息: 1 .PING消息: 心跳消息; 2 .PROPOSAL消息:Leader發起的提案,要求Follower投票; 3 .COMMIT消息:服務器端最新一次提案的信息; 4 .UPTODATE消息:代表同步完成; 5 .REVALIDATE消息:根據Leader的REVALIDATE結果,關閉待revalidate的session仍是容許其接受消息; 6 .SYNC消息:返回SYNC結果到客戶端,這個消息最初由客戶端發起,用來強制獲得最新的更新。spa

3個同時運行,將zookeeper複製兩份, 修改conf/zoo.cfg文件內容 每一個zookeeper指定本身的目錄 dataDir=D:/ubuntu-storm/workspace/zookeeper-2/data dataLogDir=D:/ubuntu-storm/workspace/zookeeper-2/logs 因爲在同一臺機器上,因此各個zoo.cfg下修改clientport,不一樣機器則不需修改端口。 clientPort=2181 clientPort=2182 clientPort=2180 本地集羣添加以下,爲通訊序列,遠程集羣修改ip地址便可。每一個zoo.cfg內容同樣。 server.1=192.168.220.128:2888:3888 server.2=192.168.220.128:4888:5888 server.3=192.168.220.128:6888:7888 在對應文件夾D:\ubuntu-storm\workspace\zookeeper-1\data\創建一個文本文件命名爲myid,內容就爲對應的zoo.cfg裏server.後數字,1就寫1,2就寫2,3就寫3.否則會報錯。 配置成功後啓動zookeeper服務。 進入到bin目錄,而且啓動zkServer.cmd 啓動後jps能夠看到QuorumPeerMain的進程 jps –v –l 動客戶端鏈接zkclint.cmd -server 127.0.0.1:2181 zkclint.cmd -server 127.0.0.1:2182 zkclint.cmd -server 127.0.0.1:2180 必定要加上-server參數,否則會報錯。線程

相關文章
相關標籤/搜索