原理簡介:
通常在部署ActiveMQ集羣的時候,更傾向於使用基於ZooKeeper的Replicated LevelDB Store方式
,該方式是Master Slave部署方案
的其中一種策略,也是在多臺主機實現ActiveMQ集羣的主流部署方式。 此教程只保證了高可用性
。要想保證負載均衡得再結合Broker Clusters 部署方案,配置網絡鏈接器。html
工做流程:
在ZooKeeper中管理多個Broker節點,根據 Master選舉策略讓其中一個 Broker選舉爲Master(只有Master才具有對外提供服務的能力),剩下Broker爲slave。
編碼時,client端(消費者)經過failover協議來鏈接ActiveMQ集羣。node
ZooKeeper集羣保證ZooKeeper自己的高可用性。web
conf/zoo.cfg
主機IP | 服務端口(默認) | 集羣通訊端口 | 節點目錄/opt/下 | |
---|---|---|---|---|
192.168.100.142 | 2181 | 2888:3888 | zookeeper | |
192.168.100.143 | 2181 | 2888:3888 | zookeeper | |
192.168.100.144 | 2181 | 2888:3888 | zookeeper |
集羣通訊端口:第一個端口是master和slave之間的通訊端口,默認是2888;第二個端口是leader選舉的端口,集羣剛啓動的時候選舉或者leader掛掉以後進行新的選舉的端口默認是3888。
在3臺主機上都安裝zookeeper服務,/opt/zookeeper,並分別配置它們的文件conf/zoo.cfg:apache
主機1(192.168.100.142):
/opt/zookeeper/conf/zoo.cfg:
vim
# zookeeper的數據存儲和日誌存儲目錄(若是目錄不存在就新建) dataDir=/opt/zookeeper/data dataLogDir=/opt/zookeeper/log # zk集羣之間的通訊地址 server.1=192.168.100.142:2888:3888 server.2=192.168.100.143:2888:3888 server.3=192.168.100.144:2888:3888
建立/opt/zookeeper/data/myid
文件,填入數字1:服務器
# 因爲該主機1(192.168.100.142)是server.1,因此在myid中設置數字1 $ vim /opt/zookeeper/data/myid
主機2(192.168.100.143):
/opt/zookeeper/conf/zoo.cfg:
網絡
dataDir=/opt/zookeeper/data dataLogDir=/opt/zookeeper/log server.1=192.168.100.142:2888:3888 server.2=192.168.100.143:2888:3888 server.3=192.168.100.144:2888:3888
建立/opt/zookeeper/data/myid
文件,填入數字2:負載均衡
# 因爲該主機2(192.168.100.143)是server.2,因此在myid中設置數字2 $ vim /opt/zookeeper/data/myid
主機3(192.168.100.143):
/opt/zookeeper/conf/zoo.cfg:
tcp
dataDir=/opt/zookeeper/data dataLogDir=/opt/zookeeper/log server.1=192.168.100.142:2888:3888 server.2=192.168.100.143:2888:3888 server.3=192.168.100.144:2888:3888
建立/opt/zookeeper/data/myid
文件,填入數字3:編碼
# 因爲該主機3(192.168.100.144)是server.3,因此在myid中設置數字3 $ vim /opt/zookeeper/data/myid
$ /opt/zookeeper/bin/zkServer.sh start # 啓動zk服務 $ /opt/zookeeper/bin/zkServer.sh status # 查看zk服務狀態
conf/activemq.xml
和conf/jetty.xml
主機IP | 服務端口(默認) | 複製協議端口(動態) | jetty控制檯端口(默認) | 節點目錄/opt/下 | |
---|---|---|---|---|---|
192.168.100.142 | 61616 | tcp://0.0.0.0:0 | 8161 | activemq/node1 | |
192.168.100.143 | 61616 | tcp://0.0.0.0:0 | 8161 | activemq/node2 | |
192.168.100.144 | 61616 | tcp://0.0.0.0:0 | 8161 | activemq/node3 |
在3臺主機上都安裝activemq 服務,/opt/activemq,並分別配置它們的文件conf/activemq.xml和conf/jetty.xml:
主機1(192.168.100.142):
/opt/activemq/conf/activemq.xml:
<!-- 持久化的部分爲ZooKeeper集羣鏈接地址--> <persistenceAdapter> <replicatedLevelDB directory="${activemq.data}/leveldb" replicas="3" bind="tcp://0.0.0.0:0" zkAddress="192.168.100.142:2181,192.168.100.143:2181,192.168.100.144:2181" zkPath="/opt/activemq/leveldb-stores" hostname="192.168.100.142" /> </persistenceAdapter> <!-- # directory: 存儲數據的路徑 # replicas:集羣中的節點數【(replicas/2)+1公式表示集羣中至少要正常運行的服務數量】,3臺集羣那麼容許1臺宕機, 另外兩臺要正常運行 # bind:當該節點成爲master後,它將綁定已配置的地址和端口來爲複製協議提供服務。還支持使用動態端口。只需使用tcp://0.0.0.0:0進行配置便可,默認端口爲61616。 # zkAddress:ZK的ip和port, 若是是集羣,則用逗號隔開(這裏做爲簡單示例ZooKeeper配置爲單點, 這樣已經適用於大多數環境了, 集羣也就多幾個配置) # zkPassword:當鏈接到ZooKeeper服務器時用的密碼,沒有密碼則不配置。 # zkPah:ZK選舉信息交換的存貯路徑,啓動服務後actimvemq會到zookeeper上註冊生成此路徑 # hostname: ActiveMQ所在主機的IP # 更多參考:http://activemq.apache.org/replicated-leveldb-store.html -->
/opt/activemq/conf/jetty.xml:
<bean id="jettyPort" class="org.apache.activemq.web.WebConsolePort" init-method="start"> <property name="host" value="0.0.0.0"/> <property name="port" value="8161"/> <!-- 在這裏修改端口爲8161,默認就是8161 --> </bean>
主機2(192.168.100.143):
/opt/activemq/conf/activemq.xml:
<persistenceAdapter> <replicatedLevelDB directory="${activemq.data}/leveldb" replicas="3" bind="tcp://0.0.0.0:0" zkAddress="192.168.100.142:2181,192.168.100.143:2181,192.168.100.144:2181" zkPath="/opt/activemq/leveldb-stores" hostname="192.168.100.143" /> </persistenceAdapter>
/opt/activemq/conf/jetty.xml:
<bean id="jettyPort" class="org.apache.activemq.web.WebConsolePort" init-method="start"> <property name="host" value="0.0.0.0"/> <property name="port" value="8161"/> <!-- 在這裏修改端口爲8161,默認就是8161 --> </bean>
主機3(192.168.100.144):
/opt/activemq/conf/activemq.xml:
<persistenceAdapter> <replicatedLevelDB directory="${activemq.data}/leveldb" replicas="3" bind="tcp://0.0.0.0:0" zkAddress="192.168.100.142:2181,192.168.100.143:2181,192.168.100.144:2181" zkPath="/opt/activemq/leveldb-stores" hostname="192.168.100.144" /> </persistenceAdapter>
/opt/activemq/conf/jetty.xml:
<bean id="jettyPort" class="org.apache.activemq.web.WebConsolePort" init-method="start"> <property name="host" value="0.0.0.0"/> <property name="port" value="8161"/> <!-- 在這裏修改端口爲8161,默認就是8161 --> </bean>
$ /opt/activemq/bin/activemq start # 啓動activemq服務 $ ps -ef|grep activemq # 檢查進程是否運行,即activemq是否啓動成功 $ netstat -anp|grep 61616 # 查看服務端口61616,監聽狀況
該zookeeper+activemq的集羣Master Slave部署方案,可以提供(3-1)/2的容錯率,即3臺服務器容許宕機一臺,而不影響整個集羣的對外提供服務。
編寫代碼鏈接時使用failover策略:
String url = failover:(tcp://192.168.100.142:61616,tcp://192.168.100.143:61616,tcp://192.168.100.144:61616)?initialReconnectDelay=1000