MongoDB Auto-Sharding 解決了海量存儲和動態擴容的問題但離實際生產環境所需的高可
靠、高可用還有些距離因此有了」 Replica Sets + Sharding」的解決方案。
一、Shard:
使用 Replica Sets確保每一個數據節點都具備備份、自動容錯轉移、自動恢復能力。
二、Config:
使用3 個配置服務器確保元數據完整性
三、Route:
使用3 個路由進程實現負載平衡提升客戶端接入性能
如下咱們配置一個 Replica Sets + Sharding 的環境架構圖以下數據庫
開放的端口以下服務器
主機 | ip | 服務及端口 |
Server A | 192.168.3.231 | mongod shard1_1:27017 mongod shard2_1:27018 mongod config1:20000 mongs1:30000 |
Server B | 192.168.3.232 | mongod shard1_2:27017 mongod shard2_2:27018 mongod config2:20000 mongs2:30000 |
Server C | 192.168.3.233 | mongod shard1_3:27017 mongod shard2_3:27018 mongod config3:20000 mongs3:30000 |
建立數據目錄架構
在Server A 上:ide
在Server B 上:性能
在Server C 上:學習
配置Replica Sets測試
一、配置shard1所用到的Replica Sets3d
在Server A 上:blog
在Server B 上:進程
在Server C 上:
用mongo 鏈接其中一臺機器的27017 端口的mongod初始化Replica Sets「shard1」執行:
配置shard2所用到的Replica Sets
在Server A 上:
在Server B 上:
在Server C 上:
用mongo 鏈接其中一臺機器的27018 端口的mongod,初始化Replica Sets 「shard2」,執行:
配置3 臺Config Server
在Server A、B、C上執行:
配置3 臺Route Process
在Server A、B、C上執行:
配置Shard Cluster
激活數據庫及集合的分片
驗證Sharding正常工做
鏈接到其中一臺機器的端口30000 的mongos 進程,並切換到test 數據庫,以便添加測試數據
能夠看到Sharding搭建成功了,跟咱們指望的結果一致,至此咱們就將Replica Sets與Sharding結合的架構也學習完畢了。