測試環境:三臺VM虛擬機centos6.4 64位 mini版,IP分別爲192.168.1.191/192/193.html
測試目的:測試activemq的failover以及與zookeeper的整合apache
測試緣由:activemq有多種持久化模式,可是均可能存在單點故障的狀況。與zookeeper整合後基本能夠保證(n-1)/2的穩定性。其中n表示服務器數量。centos
測試備註:該模式下仍是單節點負載,只是因爲引入了zookeeper的監測機制。保證多個activemq服務在同一時間內只有一個服務對外開放。性能優化
性能分析:在環境搭載完成後測試了下性能負載,在單臺無zookeeper模式下用kahadb負載能打到12000條/秒,可是在引入zookeeper後只能有1500條/秒左右,服務器
可是因爲本次測試不是性能調優,只是爲了保證jms服務的可用性,所以沒有進行性能優化調整。tcp
一、下載zookeeperpost
cd /opt && wget http://mirror.bit.edu.cn/apache/zookeeper/stable/zookeeper-3.4.5.tar.gz性能
二、下載activemq測試
cd /opt && wget 優化
解壓這兩個文件,都放在opt目錄下。
如下配置是分別在192.168.1.191 192.168.1.192 192.168.1.193三臺服務器上進行配置。
這種配置方案可以實現(n-1)/2的容錯率,也就是三臺服務器容許掛一臺,五個能當掉2個,依次類推。
三、更改zookeeper配置
cd /opt/zookeeper-3.4.5/conf
cp zoo_sample.cfg zoo.cfg
vi zoo.cfg
而後配置爲三個節點
server.1=192.168.1.191:2888:3888
server.2=192.168.1.192:2888:3888
server.3=192.168.1.193:2888:3888
而後須要cd /tmp/zookeeper
新建一個名字叫作myid的文件,裏面寫上當前服務的優先級?基本上是數字 注意這裏的數字要和zoo.cfg文件中的server.*吻合,好比個人配置是191這臺機器是叫作1 192這臺機器是叫作2
vi myid
四、更改activemq的配置
vi /opt/apache-activemq-5.9.0/conf/activemq.xml
找到
<persistenceAdapter>
<kahaDB directory="${activemq.data}/kahadb"/>
</persistenceAdapter>
這種字樣的配置項目,默認狀況下activemq是走kahadb存儲的,這裏替換爲:
<persistenceAdapter>
<replicatedLevelDB
directory="${activemq.data}/leveldb"
replicas="3"
bind="tcp://0.0.0.0:0"
zkAddress="192.168.1.191:2181,192.168.1.192:2181,192.168.1.193:2181"
zkPassword="password"
hostname="192.168.1.191"
sync="local_disk"
zkPath="/activemq/leveldb-stores"
/>
</persistenceAdapter>
這裏不一樣機器上的hostname要設置爲不一樣。
五、剩下的就是開始服務了。
首先開始三臺服務器上的zookeeper服務:
/opt/zookeeper-3.4.5/bin/zkServer.sh start
而後分別開啓三臺服務器上的activemq服務:
/opt/apache-activemq-5.9.0/bin/activemq start
好了,基本沒什麼問題了。
而後就開始http://192.168.1.191:8161 或者http://192.168.1.192:8161
或者http://192.168.1.193:8161
這三個連接看哪一個能訪問,哪一個消息服務器則表示存活提供服務。
六、測試
關掉19一、19二、193其中任何一臺,通過測試可以正常提供服務,客戶端會自動切換鏈接,達到預期目的。
六、客戶端鏈接使用failover方案:
failover:(tcp://192.168.1.191:61616,tcp://192.168.1.192:61616,tcp://192.168.1.193:61616)?initialReconnectDelay=1000