$ruby redis-trib.rb help Usage: redis-trib <command> <options> <arguments ...> 1.create:建立集羣 create host1:port1 ... hostN:portN --replicas <arg> 2.check:檢查集羣 check host:port 3.info:查看集羣信息 info host:port 4.fix:修復集羣 fix host:port --timeout <arg> 5.reshard:在線遷移slot reshard host:port --from <arg> --to <arg> --slots <arg> --yes --timeout <arg> --pipeline <arg> 6.rebalance:平衡集羣節點slot數量 rebalance host:port --weight <arg> --auto-weights --threshold <arg> --use-empty-masters --timeout <arg> --simulate --pipeline <arg> 7.add-node:將新節點加入集羣 add-node new_host:new_port existing_host:existing_port --slave --master-id <arg> 8.del-node:從集羣中刪除節點 del-node host:port node_id 9.set-timeout:設置集羣節點間心跳鏈接的超時時間 set-timeout host:port milliseconds 10.call:在集羣所有節點上執行命令 call host:port command arg arg .. arg 11.import:將外部redis數據導入集羣 import host:port --from <arg> --copy --replace help (show this help) For check, fix, reshard, del-node, set-timeout you can specify the host and port of any working node in the cluster.
redis-trib.rb主要有兩個類:ClusterNode和RedisTrib。ClusterNode保存了每一個節點的信息,RedisTrib則是redis-trib.rb各個功能的實現。 ClusterNode對象 先分析ClusterNode源碼。ClusterNode有下面幾個成員變量(ruby的類成員變量是以@開頭的): @r:執行redis命令的客戶端對象。 @info:保存了該節點的詳細信息,包括cluster nodes命令中本身這行的信息和cluster info的信息。 @dirty:節點信息是否須要更新,若是爲true,咱們須要把內存的節點更新信息到節點上。 @friends:保存了集羣其餘節點的info信息。其信息爲經過cluster nodes命令得到的其餘節點信息。 ClusterNode有下面一些成員方法: initialize:ClusterNode的構造方法,須要傳入節點的地址信息。 friends:返回@friends對象。 slots:返回該節點負責的slots信息。 has_flag?:判斷節點info信息的的flags中是否有給定的flag。 to_s:相似java的toString方法,返回節點的地址信息。 connect:鏈接redis節點。 assert_cluster:判斷節點開啓了集羣配置。 assert_empty:肯定節點目前沒有跟任何其餘節點握手,同時本身的db數據爲空。 load_info:經過cluster info和cluster nodes導入節點信息。 add_slots:給節點增長slot,該操做只是在內存中修改,並把dirty設置成true,等待flush_node_config將內存中的數據同步在節點執行。 set_as_replica:slave設置複製的master地址。dirty設置成true。 flush_node_config:將內存的數據修改同步在集羣節點中執行。 info_string:簡單的info信息。 get_config_signature:用來驗證集羣節點見的cluster nodes信息是否一致。該方法返回節點的簽名信息。 info:返回@info對象,包含詳細的info信息。 is_dirty?:判斷@dirty。 r:返回執行redis命令的客戶端對象。 有了ClusterNode對象,在處理集羣操做的時候,就得到了集羣的信息,能夠進行集羣相關操做。在此先簡單介紹下redis-trib.rb腳本的使用,以create爲例: create host1:port1 ... hostN:portN --replicas <arg> host1:port1 ... hostN:portN表示子參數,這個必須在可選參數以後,--replicas <arg>是可選參數,帶的表示後面必須填寫一個參數,像--slave這樣,後面就不帶參數,掌握了這個基本規則,就能從help命令中得到redis-trib.rb的使用方法。 其餘命令大都須要傳遞host:port,這是redis-trib.rb爲了鏈接集羣,須要選擇集羣中的一個節點,而後經過該節點得到整個集羣的信息。
Usage: redis-trib <command> <options> <arguments ...> create host1:port1 ... hostN:portN --replicas <arg> create命令可選replicas參數,replicas表示須要有幾個slave。最簡單命令使用以下: $ruby redis-trib.rb create 10.180.157.199:6379 10.180.157.200:6379 10.180.157.201:6379 有一個slave的建立命令以下: $ruby redis-trib.rb create --replicas 1 10.180.157.199:6379 10.180.157.200:6379 10.180.157.201:6379 10.180.157.202:6379 10.180.157.205:6379 10.180.157.208:6379 建立流程以下: 一、首先爲每一個節點建立ClusterNode對象,包括鏈接每一個節點。檢查每一個節點是否爲獨立且db爲空的節點。執行load_info方法導入節點信息。 二、檢查傳入的master節點數量是否大於等於3個。只有大於3個節點才能組成集羣。 三、計算每一個master須要分配的slot數量,以及給master分配slave。分配的算法大體以下: 先把節點按照host分類,這樣保證master節點能分配到更多的主機中。 不停遍歷遍歷host列表,從每一個host列表中彈出一個節點,放入interleaved數組。直到全部的節點都彈出爲止。 master節點列表就是interleaved前面的master數量的節點列表。保存在masters數組。 計算每一個master節點負責的slot數量,保存在slots_per_node對象,用slot總數除以master數量取整便可。 遍歷masters數組,每一個master分配slots_per_node個slot,最後一個master,分配到16384個slot爲止。 接下來爲master分配slave,分配算法會盡可能保證master和slave節點不在同一臺主機上。對於分配完指定slave數量的節點,還有多餘的節點,也會爲這些節點尋找master。分配算法會遍歷兩次masters數組。 第一次遍歷masters數組,在餘下的節點列表找到replicas數量個slave。每一個slave爲第一個和master節點host不同的節點,若是沒有不同的節點,則直接取出餘下列表的第一個節點。 第二次遍歷是在對於節點數除以replicas不爲整數,則會多餘一部分節點。遍歷的方式跟第一次同樣,只是第一次會一次性給master分配replicas數量個slave,而第二次遍歷只分配一個,直到餘下的節點被所有分配出去。 四、打印出分配信息,並提示用戶輸入「yes」確認是否按照打印出來的分配方式建立集羣。 五、輸入「yes」後,會執行flush_nodes_config操做,該操做執行前面的分配結果,給master分配slot,讓slave複製master,對於尚未握手(cluster meet)的節點,slave複製操做沒法完成,不過不要緊,flush_nodes_config操做出現異常會很快返回,後續握手後會再次執行flush_nodes_config。 六、給每一個節點分配epoch,遍歷節點,每一個節點分配的epoch比以前節點大1。 七、節點間開始相互握手,握手的方式爲節點列表的其餘節點跟第一個節點握手。 八、而後每隔1秒檢查一次各個節點是否已經消息同步完成,使用ClusterNode的get_config_signature方法,檢查的算法爲獲取每一個節點cluster nodes信息,排序每一個節點,組裝成node_id1:slots|node_id2:slot2|...的字符串。若是每一個節點得到字符串都相同,即認爲握手成功。 九、此後會再執行一次flush_nodes_config,此次主要是爲了完成slave複製操做。 十、最後再執行check_cluster,全面檢查一次集羣狀態。包括和前面握手時檢查同樣的方式再檢查一遍。確認沒有遷移的節點。確認全部的slot都被分配出去了。 十一、至此完成了整個建立流程,返回[OK] All 16384 slots covered.。
Usage: redis-trib <command> <options> <arguments ...> check host:port 檢查集羣狀態的命令,沒有其餘參數,只須要選擇一個集羣中的一個節點便可。執行命令以及結果以下: $ruby redis-trib.rb check 10.180.157.199:6379 >>> Performing Cluster Check (using node 10.180.157.199:6379) M: b2506515b38e6bbd3034d540599f4cd2a5279ad1 10.180.157.199:6379 slots:0-5460 (5461 slots) master 1 additional replica(s) S: d376aaf80de0e01dde1f8cd4647d5ac3317a8641 10.180.157.205:6379 slots: (0 slots) slave replicates e36c46dbe90960f30861af00786d4c2064e63df2 M: 15126fb33796c2c26ea89e553418946f7443d5a5 10.180.157.201:6379 slots:10923-16383 (5461 slots) master 1 additional replica(s) S: 59fa6ee455f58a5076f6d6f83ddd74161fd7fb55 10.180.157.208:6379 slots: (0 slots) slave replicates 15126fb33796c2c26ea89e553418946f7443d5a5 S: 460b3a11e296aafb2615043291b7dd98274bb351 10.180.157.202:6379 slots: (0 slots) slave replicates b2506515b38e6bbd3034d540599f4cd2a5279ad1 M: e36c46dbe90960f30861af00786d4c2064e63df2 10.180.157.200:6379 slots:5461-10922 (5462 slots) master 1 additional replica(s) [OK] All nodes agree about slots configuration. >>> Check for open slots... >>> Check slots coverage... [OK] All 16384 slots covered. 檢查前會先執行load_cluster_info_from_node方法,把全部節點數據load進來。load的方式爲經過本身的cluster nodes發現其餘節點,而後鏈接每一個節點,並加入nodes數組。接着生成節點間的複製關係。 load完數據後,開始檢查數據,檢查的方式也是調用建立時候使用的check_cluster。
Usage: redis-trib <command> <options> <arguments ...> info host:port info命令用來查看集羣的信息。info命令也是先執行load_cluster_info_from_node獲取完整的集羣信息。而後顯示ClusterNode的info_string結果,示例以下: $ruby redis-trib.rb info 10.180.157.199:6379 10.180.157.199:6379 (b2506515...) -> 0 keys | 5461 slots | 1 slaves. 10.180.157.201:6379 (15126fb3...) -> 0 keys | 5461 slots | 1 slaves. 10.180.157.200:6379 (e36c46db...) -> 0 keys | 5462 slots | 1 slaves. [OK] 0 keys in 3 masters. 0.00 keys per slot on average.
Usage: redis-trib <command> <options> <arguments ...> fix host:port --timeout <arg> fix命令的流程跟check的流程很像,顯示加載集羣信息,而後在check_cluster方法內傳入fix爲true的變量,會在集羣檢查出現異常的時候執行修復流程。 目前fix命令能修復兩種異常,一種是集羣有處於遷移中的slot的節點,一種是slot未徹底分配的異常。 fix_open_slot方法是修復集羣有處於遷移中的slot的節點異常。 一、先檢查該slot是誰負責的,遷移的源節點若是沒完成遷移,owner仍是該節點。沒有owner的slot沒法完成修復功能。 二、遍歷每一個節點,獲取哪些節點標記該slot爲migrating狀態,哪些節點標記該slot爲importing狀態。對於owner不是該節點,可是經過cluster countkeysinslot獲取到該節點有數據的狀況,也認爲該節點爲importing狀態。 三、若是migrating和importing狀態的節點均只有1個,這多是遷移過程當中redis-trib.rb被中斷所致,直接執行move_slot繼續完成遷移任務便可。傳遞dots和fix爲true。 四、若是migrating爲空,importing狀態的節點大於0,那麼這種狀況執行回滾流程,將importing狀態的節點數據經過move_slot方法導給slot的owner節點,傳遞dots、fix和cold爲true。接着對importing的節點執行cluster stable命令恢復穩定。 五、若是importing狀態的節點爲空,有一個migrating狀態的節點,並且該節點在當前slot沒有數據,那麼能夠直接把這個slot設爲stable。 六、若是migrating和importing狀態不是上述狀況,目前redis-trib.rb工具沒法修復,上述的三種狀況也已經覆蓋了經過redis-trib.rb工具遷移出現異常的各個方面,人爲的異常情形太多,很難考慮徹底。 fix_slots_coverage方法能修復slot未徹底分配的異常。未分配的slot有三種狀態。 一、全部節點的該slot都沒有數據。該狀態redis-trib.rb工具直接採用隨機分配的方式,並無考慮節點的均衡。本人嘗試對沒有分配slot的集羣經過fix修復集羣,結果slot仍是能比較平均的分配,可是沒有了連續性,打印的slot信息很是離散。 二、有一個節點的該slot有數據。該狀態下,直接把slot分配給該slot有數據的節點。 三、有多個節點的該slot有數據。此種狀況目前還處於TODO狀態,不過redis做者列出了修復的步驟,對這些節點,除第一個節點,執行cluster migrating命令,而後把這些節點的數據遷移到第一個節點上。清除migrating狀態,而後把slot分配給第一個節點。
Usage: redis-trib <command> <options> <arguments ...> reshard host:port --from <arg> --to <arg> --slots <arg> --yes --timeout <arg> --pipeline <arg> reshard命令能夠在線把集羣的一些slot從集羣原來slot負責節點遷移到新的節點,利用reshard能夠完成集羣的在線橫向擴容和縮容。 reshard的參數不少,下面來一一解釋一番: host:port:這個是必傳參數,用來從一個節點獲取整個集羣信息,至關於獲取集羣信息的入口。 --from <arg>:須要從哪些源節點上遷移slot,可從多個源節點完成遷移,以逗號隔開,傳遞的是節點的node id,還能夠直接傳遞--from all,這樣源節點就是集羣的全部節點,不傳遞該參數的話,則會在遷移過程當中提示用戶輸入。 --to <arg>:slot須要遷移的目的節點的node id,目的節點只能填寫一個,不傳遞該參數的話,則會在遷移過程當中提示用戶輸入。 --slots <arg>:須要遷移的slot數量,不傳遞該參數的話,則會在遷移過程當中提示用戶輸入。 --yes:設置該參數,能夠在打印執行reshard計劃的時候,提示用戶輸入yes確認後再執行reshard。 --timeout <arg>:設置migrate命令的超時時間。 --pipeline <arg>:定義cluster getkeysinslot命令一次取出的key數量,不傳的話使用默認值爲10。 遷移的流程以下: 一、經過load_cluster_info_from_node方法裝載集羣信息。 二、執行check_cluster方法檢查集羣是否健康。只有健康的集羣才能進行遷移。 三、獲取須要遷移的slot數量,用戶沒傳遞--slots參數,則提示用戶手動輸入。 四、獲取遷移的目的節點,用戶沒傳遞--to參數,則提示用戶手動輸入。此處會檢查目的節點必須爲master節點。 五、獲取遷移的源節點,用戶沒傳遞--from參數,則提示用戶手動輸入。此處會檢查源節點必須爲master節點。--from all的話,源節點就是除了目的節點外的所有master節點。這裏爲了保證集羣slot分配的平均,建議傳遞--from all。 六、執行compute_reshard_table方法,計算須要遷移的slot數量如何分配到源節點列表,採用的算法是按照節點負責slot數量由多到少排序,計算每一個節點須要遷移的slot的方法爲:遷移slot數量 * (該源節點負責的slot數量 / 源節點列表負責的slot總數)。這樣算出的數量可能不爲整數,這裏代碼用了下面的方式處理: n = (numslots/source_tot_slots*s.slots.length) if i == 0 n = n.ceil else n = n.floor 這樣的處理方式會帶來最終分配的slot與請求遷移的slot數量不一致,這個BUG已經在github上提給做者,https://github.com/antirez/redis/issues/2990。 七、打印出reshard計劃,若是用戶沒傳--yes,就提示用戶確認計劃。 八、根據reshard計劃,一個個slot的遷移到新節點上,遷移使用move_slot方法,該方法被不少命令使用,具體能夠參見下面的遷移流程。move_slot方法傳遞dots爲true和pipeline數量。 九、至此,就完成了所有的遷移任務。 下面看下一次reshard的執行結果: $ruby redis-trib.rb reshard --from all --to 80b661ecca260c89e3d8ea9b98f77edaeef43dcd --slots 11 10.180.157.199:6379 >>> Performing Cluster Check (using node 10.180.157.199:6379) S: b2506515b38e6bbd3034d540599f4cd2a5279ad1 10.180.157.199:6379 slots: (0 slots) slave replicates 460b3a11e296aafb2615043291b7dd98274bb351 S: d376aaf80de0e01dde1f8cd4647d5ac3317a8641 10.180.157.205:6379 slots: (0 slots) slave replicates e36c46dbe90960f30861af00786d4c2064e63df2 M: 15126fb33796c2c26ea89e553418946f7443d5a5 10.180.157.201:6379 slots:10923-16383 (5461 slots) master 1 additional replica(s) S: 59fa6ee455f58a5076f6d6f83ddd74161fd7fb55 10.180.157.208:6379 slots: (0 slots) slave replicates 15126fb33796c2c26ea89e553418946f7443d5a5 M: 460b3a11e296aafb2615043291b7dd98274bb351 10.180.157.202:6379 slots:0-5460 (5461 slots) master 1 additional replica(s) M: 80b661ecca260c89e3d8ea9b98f77edaeef43dcd 10.180.157.200:6380 slots: (0 slots) master 0 additional replica(s) M: e36c46dbe90960f30861af00786d4c2064e63df2 10.180.157.200:6379 slots:5461-10922 (5462 slots) master 1 additional replica(s) [OK] All nodes agree about slots configuration. >>> Check for open slots... >>> Check slots coverage... [OK] All 16384 slots covered. Ready to move 11 slots. Source nodes: M: 15126fb33796c2c26ea89e553418946f7443d5a5 10.180.157.201:6379 slots:10923-16383 (5461 slots) master 1 additional replica(s) M: 460b3a11e296aafb2615043291b7dd98274bb351 10.180.157.202:6379 slots:0-5460 (5461 slots) master 1 additional replica(s) M: e36c46dbe90960f30861af00786d4c2064e63df2 10.180.157.200:6379 slots:5461-10922 (5462 slots) master 1 additional replica(s) Destination node: M: 80b661ecca260c89e3d8ea9b98f77edaeef43dcd 10.180.157.200:6380 slots: (0 slots) master 0 additional replica(s) Resharding plan: Moving slot 5461 from e36c46dbe90960f30861af00786d4c2064e63df2 Moving slot 5462 from e36c46dbe90960f30861af00786d4c2064e63df2 Moving slot 5463 from e36c46dbe90960f30861af00786d4c2064e63df2 Moving slot 5464 from e36c46dbe90960f30861af00786d4c2064e63df2 Moving slot 0 from 460b3a11e296aafb2615043291b7dd98274bb351 Moving slot 1 from 460b3a11e296aafb2615043291b7dd98274bb351 Moving slot 2 from 460b3a11e296aafb2615043291b7dd98274bb351 Moving slot 10923 from 15126fb33796c2c26ea89e553418946f7443d5a5 Moving slot 10924 from 15126fb33796c2c26ea89e553418946f7443d5a5 Moving slot 10925 from 15126fb33796c2c26ea89e553418946f7443d5a5 Do you want to proceed with the proposed reshard plan (yes/no)? yes Moving slot 5461 from 10.180.157.200:6379 to 10.180.157.200:6380: Moving slot 5462 from 10.180.157.200:6379 to 10.180.157.200:6380: Moving slot 5463 from 10.180.157.200:6379 to 10.180.157.200:6380: Moving slot 5464 from 10.180.157.200:6379 to 10.180.157.200:6380: Moving slot 0 from 10.180.157.202:6379 to 10.180.157.200:6380: Moving slot 1 from 10.180.157.202:6379 to 10.180.157.200:6380: Moving slot 2 from 10.180.157.202:6379 to 10.180.157.200:6380: Moving slot 10923 from 10.180.157.201:6379 to 10.180.157.200:6380: Moving slot 10924 from 10.180.157.201:6379 to 10.180.157.200:6380: Moving slot 10925 from 10.180.157.201:6379 to 10.180.157.200:6380: move_slot方法能夠在線將一個slot的所有數據從源節點遷移到目的節點,fix、reshard、rebalance都須要調用該方法遷移slot。 move_slot接受下面幾個參數, 一、pipeline:設置一次從slot上獲取多少個key。 二、quiet:遷移會打印相關信息,設置quiet參數,能夠不用打印這些信息。 三、cold:設置cold,會忽略執行importing和migrating。 四、dots:設置dots,則會在遷移過程打印遷移key數量的進度。 五、update:設置update,則會更新內存信息,方便之後的操做。 move_slot流程以下: 一、若是沒有設置cold,則對源節點執行cluster importing命令,對目的節點執行migrating命令。fix的時候有可能importing和migrating已經執行過來,因此此種場景會設置cold。 二、經過cluster getkeysinslot命令,一次性獲取遠節點遷移slot的pipeline個key的數量. 三、對這些key執行migrate命令,將數據從源節點遷移到目的節點。 四、若是migrate出現異常,在fix模式下,BUSYKEY的異常,會使用migrate的replace模式再執行一次,BUSYKEY表示目的節點已經有該key了,replace模式能夠強制替換目的節點的key。不是fix模式就直接返回錯誤了。 五、循環執行cluster getkeysinslot命令,直到返回的key數量爲0,就退出循環。 六、若是沒有設置cold,對每一個節點執行cluster setslot命令,把slot賦給目的節點。 七、若是設置update,則修改源節點和目的節點的slot信息。 八、至此完成了遷移slot的流程。
Usage: redis-trib <command> <options> <arguments ...> rebalance host:port --weight <arg> --auto-weights --threshold <arg> --use-empty-masters --timeout <arg> --simulate --pipeline <arg>
rebalance命令能夠根據用戶傳入的參數平衡集羣節點的slot數量,rebalance功能很是強大,能夠傳入的參數不少,如下是rebalance的參數列表和命令示例。java
$ruby redis-trib.rb rebalance --threshold 1 --weight b31e3a2e=5 --weight 60b8e3a1=5 --use-empty-masters --simulate 10.180.157.199:6379 下面也先一一解釋下每一個參數的用法: host:port:這個是必傳參數,用來從一個節點獲取整個集羣信息,至關於獲取集羣信息的入口。 --weight <arg>:節點的權重,格式爲node_id=weight,若是須要爲多個節點分配權重的話,須要添加多個--weight <arg>參數,即--weight b31e3a2e=5 --weight 60b8e3a1=5,node_id可爲節點名稱的前綴,只要保證前綴位數能惟一區分該節點便可。沒有傳遞–weight的節點的權重默認爲1。 --auto-weights:這個參數在rebalance流程中並未用到。 --threshold <arg>:只有節點須要遷移的slot閾值超過threshold,纔會執行rebalance操做。具體計算方法能夠參考下面的rebalance命令流程的第四步。 --use-empty-masters:rebalance是否考慮沒有節點的master,默認沒有分配slot節點的master是不參與rebalance的,設置--use-empty-masters可讓沒有分配slot的節點參與rebalance。 --timeout <arg>:設置migrate命令的超時時間。 --simulate:設置該參數,能夠模擬rebalance操做,提示用戶會遷移哪些slots,而不會真正執行遷移操做。 --pipeline <arg>:與reshar的pipeline參數同樣,定義cluster getkeysinslot命令一次取出的key數量,不傳的話使用默認值爲10。 rebalance命令流程以下: 一、load_cluster_info_from_node方法先加載集羣信息。 二、計算每一個master的權重,根據參數--weight <arg>,爲每一個設置的節點分配權重,沒有設置的節點,則權重默認爲1。 三、根據每一個master的權重,以及總的權重,計算本身指望被分配多少個slot。計算的方式爲:總slot數量 * (本身的權重 / 總權重)。 四、計算每一個master指望分配的slot是否超過設置的閾值,即--threshold <arg>設置的閾值或者默認的閾值。計算的方式爲:先計算指望移動節點的閾值,算法爲:(100-(100.0*expected/n.slots.length)).abs,若是計算出的閾值沒有超出設置閾值,則不須要爲該節點移動slot。只要有一個master的移動節點超過閾值,就會觸發rebalance操做。 五、若是觸發了rebalance操做。那麼就開始執行rebalance操做,先將每一個節點當前分配的slots數量減去指望分配的slot數量得到balance值。將每一個節點的balance從小到大進行排序得到sn數組。 六、用dst_idx和src_idx遊標分別從sn數組的頭部和尾部開始遍歷。目的是爲了把尾部節點的slot分配給頭部節點。 sn數組保存的balance列表排序後,負數在前面,正數在後面。負數表示須要有slot遷入,因此使用dst_idx遊標,正數表示須要有slot遷出,因此使用src_idx遊標。 理論上sn數組各節點的balance值加起來應該爲0,不過因爲在計算指望分配的slot的時候只是使用直接取整的方式,因此可能出現balance值之和不爲0的狀況, balance值之和不爲0即爲節點不平衡的slot數量,因爲slot總數有16384個,不平衡數量相對於總數,基數很小,因此對rebalance流程影響不大。 七、獲取sn[dst_idx]和sn[src_idx]的balance值較小的那個值,該值即爲須要從sn[src_idx]節點遷移到sn[dst_idx]節點的slot數量。 八、接着經過compute_reshard_table方法計算源節點的slot如何分配到源節點列表。這個方法在reshard流程中也有調用,具體步驟能夠參考reshard流程的第六步。 九、若是是simulate模式,則只是打印出遷移列表。 十、若是沒有設置simulate,則執行move_slot操做,遷移slot,傳入的參數爲:quiet=>true,:dots=>false,:update=>true。 十一、遷移完成後更新sn[dst_idx]和sn[src_idx]的balance值。若是balance值爲0後,遊標向前進1。 十二、直到dst_idx到達src_idx遊標,完成整個rebalance操做。
Usage: redis-trib <command> <options> <arguments ...> add-node new_host:new_port existing_host:existing_port --slave --master-id <arg> add-node命令能夠將新節點加入集羣,節點能夠爲master,也能夠爲某個master節點的slave。 add-node有兩個可選參數: --slave:設置該參數,則新節點以slave的角色加入集羣 --master-id:這個參數須要設置了--slave才能生效,--master-id用來指定新節點的master節點。若是不設置該參數,則會隨機爲節點選擇master節點。 能夠看下add-node命令的執行示例: $ruby redis-trib.rb add-node --slave --master-id dcb792b3e85726f012e83061bf237072dfc45f99 10.180.157.202:6379 10.180.157.199:6379 >>> Adding node 10.180.157.202:6379 to cluster 10.180.157.199:6379 >>> Performing Cluster Check (using node 10.180.157.199:6379) M: dcb792b3e85726f012e83061bf237072dfc45f99 10.180.157.199:6379 slots:0-5460 (5461 slots) master 0 additional replica(s) M: 464d740bf48953ebcf826f4113c86f9db3a9baf3 10.180.157.201:6379 slots:10923-16383 (5461 slots) master 0 additional replica(s) M: befa7e17b4e5f239e519bc74bfef3264a40f96ae 10.180.157.200:6379 slots:5461-10922 (5462 slots) master 0 additional replica(s) [OK] All nodes agree about slots configuration. >>> Check for open slots... >>> Check slots coverage... [OK] All 16384 slots covered. >>> Send CLUSTER MEET to node 10.180.157.202:6379 to make it join the cluster. Waiting for the cluster to join. >>> Configure node as replica of 10.180.157.199:6379. [OK] New node added correctly. add-node流程以下: 一、經過load_cluster_info_from_node方法轉載集羣信息,check_cluster方法檢查集羣是否健康。 二、若是設置了--slave,則須要爲該節點尋找master節點。設置了--master-id,則以該節點做爲新節點的master,若是沒有設置--master-id,則調用get_master_with_least_replicas方法,尋找slave數量最少的master節點。若是slave數量一致,則選取load_cluster_info_from_node順序發現的第一個節點。load_cluster_info_from_node順序的第一個節點是add-node設置的existing_host:existing_port節點,後面的順序根據在該節點執行cluster nodes返回的結果返回的節點順序。 三、鏈接新的節點並與集羣第一個節點握手。 四、若是沒設置–slave就直接返回ok,設置了–slave,則須要等待確認新節點加入集羣,而後執行cluster replicate命令複製master節點。 五、至此,完成了所有的增長節點的流程。
Usage: redis-trib <command> <options> <arguments ...> del-node host:port node_id del-node能夠把某個節點從集羣中刪除。del-node只能刪除沒有分配slot的節點。 del-node執行結果示例以下: $ruby redis-trib.rb del-node 10.180.157.199:6379 d5f6d1d17426bd564a6e309f32d0f5b96962fe53 >>> Removing node d5f6d1d17426bd564a6e309f32d0f5b96962fe53 from cluster 10.180.157.199:6379 >>> Sending CLUSTER FORGET messages to the cluster... >>> SHUTDOWN the node. del-node流程以下: 一、經過load_cluster_info_from_node方法轉載集羣信息。 二、根據傳入的node id獲取節點,若是節點沒找到,則直接提示錯誤並退出。 三、若是節點分配的slot不爲空,則直接提示錯誤並退出。 四、遍歷集羣內的其餘節點,執行cluster forget命令,從每一個節點中去除該節點。若是刪除的節點是master,並且它有slave的話,這些slave會去複製其餘master,調用的方法是get_master_with_least_replicas,與add-node沒設置--master-id尋找master的方法同樣。
五、而後關閉該節點node
Usage: redis-trib <command> <options> <arguments ...> set-timeout host:port milliseconds set-timeout用來設置集羣節點間心跳鏈接的超時時間,單位是毫秒,不得小於100毫秒,由於100毫秒對於心跳時間來講過短了。 該命令修改是節點配置參數cluster-node-timeout,默認是15000毫秒。經過該命令,能夠給每一個節點設置超時時間,設置的方式使用config set命令動態設置,而後執行config rewrite命令將配置持久化保存到硬盤。 如下是示例: ruby redis-trib.rb set-timeout 10.180.157.199:6379 30000 >>> Reconfiguring node timeout in every cluster node... *** New timeout set for 10.180.157.199:6379 *** New timeout set for 10.180.157.205:6379 *** New timeout set for 10.180.157.201:6379 *** New timeout set for 10.180.157.200:6379 *** New timeout set for 10.180.157.208:6379 >>> New node timeout set. 5 OK, 0 ERR.
Usage: redis-trib <command> <options> <arguments ...> call host:port command arg arg .. arg call命令能夠用來在集羣的所有節點執行相同的命令。call命令也是須要經過集羣的一個節點地址,連上整個集羣,而後在集羣的每一個節點執行該命令。 $ruby redis-trib.rb call 10.180.157.199:6379 get key >>> Calling GET key 10.180.157.199:6379: MOVED 12539 10.180.157.201:6379 10.180.157.205:6379: MOVED 12539 10.180.157.201:6379 10.180.157.201:6379: 10.180.157.200:6379: MOVED 12539 10.180.157.201:6379 10.180.157.208:6379: MOVED 12539 10.180.157.201:6379
Usage: redis-trib <command> <options> <arguments ...> import host:port --from <arg> --copy --replace
import命令能夠把外部的redis節點數據導入集羣。導入的流程以下:
一、經過load_cluster_info_from_node方法轉載集羣信息,check_cluster方法檢查集羣是否健康。
二、鏈接外部redis節點,若是外部節點開啓了cluster_enabled,則提示錯誤。
三、經過scan命令遍歷外部節點,一次獲取1000條數據。
四、遍歷這些key,計算出key對應的slot。
五、執行migrate命令,源節點是外部節點,目的節點是集羣slot對應的節點,若是設置了--copy參數,則傳遞copy參數,若是設置了--replace,則傳遞replace參數。
六、不停執行scan命令,直到遍歷徹底部的key。
七、至此完成整個遷移流程
這中間若是出現異常,程序就會中止。沒使用--copy模式,則能夠從新執行import命令,使用--copy的話,最好清空新的集羣再導入一次。
git
import命令更適合離線的把外部redis數據導入,在線導入的話最好使用更專業的導入工具,以slave的方式鏈接redis節點去同步節點數據應該是更好的方式。github
下面是一個例子redis
./redis-trib.rb import --from 10.0.10.1:6379 10.10.10.1:7000
上面的命令是把 10.0.10.1:6379(redis 2.8)上的數據導入到 10.10.10.1:7000這個節點所在的集羣算法