數據複製機制: 客戶端根據HASH算出主節點,數據只從客戶端發到主節點
GridNearAtomicSingleUpdateFuture.mapOnTopology
GridNearAtomicSingleUpdateFuture.map
GridNearAtomicAbstractUpdateFuture.sendSingleRequest
GridCacheIoManager.send node
當數據複製到主節點時,再從主節點複製到其餘節點
GridDhtAtomicCache.updateAllAsyncInternal
GridDhtAtomicAbstractUpdateFuture.map
GridDhtAtomicAbstractUpdateFuture.sendDhtRequests
GridCacheIoManager.send 算法
每當集羣拓撲改變時候會從新計算主節點
GridCachePartitionExchangeManager.onDiscoveryEvent
GridDhtPartitionsExchangeFuture.onClusterStateChangeRequest/onCacheChangeRequest/onAffinityChangeRequest/
CacheAffinitySharedManager.applyx
GridAffinityAssignmentCache.calculate
AffinityFunction.assignPartitions app
IGNITE 採用 Rendezvous hash 算法,計算每一個節點的權重, 只要集羣視圖一致,那麼客戶端服務端都應用這種算法,找出權重最高的N個節點,
做爲主節點和複製節點
RendezvousAffinityFunction:
爲每一個PARTITION 分配多個集羣節點,PARTITION數量爲參數傳入RendezvousAffinityFunction,默認1024. 分配的結果表示這個PARTITION的數據應該落在哪些節點上
爲每一個集羣節點計算HASH: 值爲節點的CONSISTENTHASHID 對 當前的PARTITION取模,
將HASH排序,而後取前N個節點,N爲每一個PARTITION最終須要複製到的節點,取決於BACKUP的數量,是否EXCLUDE NEIGHBOR等選項
計算 KEY屬於哪一個PARTITION: 分配的結果存在GridAffinityAssignment中 ide
GridCacheContext.allowFastLocalRead 中有一個方法判斷是否能夠從本地快速讀取:
topology().partitionState(localNodeId(), part) == OWNING 排序
GridCacheContext.toCacheKeyObject 方法將 key 轉化爲KeyCacheObject, 並分配partition, 參考 IgniteCacheObjectProcessorImpl.partitionhash
讀數據:
GridPartitionedSingleGetFuture.mapKeyToNode 方法獲取從哪一個節點讀取數據
內部調用GridCacheAffinityManager.partition 和GridCacheAffinityManager.nodesByPartition
而後默認從得到NODE 列表的第一個讀取數據 it
新的節點加入後會自動從新REBLANCE數據
CacheAffinitySharedManager.onServerJoin
CacheAffinitySharedManager.initAffinityOnNodeJoin io
檢查rebalance 是否完成 CacheAffinitySharedManager.checkRebalanceState ast
Partition 的狀態 MOVING, OWNING, RENTING, EVICTED, LOST
OWNING 表示分區屬於主節點
RENTING 表示拓撲結構改變之後 class