本文銜接上一篇Cassandra管理之備份與恢復,介紹如何進行cassandra異機恢復。這個異機恢復過程就是將舊庫的數據文件拷貝到新環境對應的目錄,而後啓動數據庫便可,可是在恢復以前還須要對新環境作一些必要的修改。這裏的環境是單機版,另外此方法也適用於集羣模式。node
若是是集羣模式,須要獲取每一個節點IP的tokens。這裏是單機版,獲取方法以下:數據庫
[root@db03 ~]# nodetool ring | grep -w 192.168.120.83 | awk '{print $NF ","}' | xargs
須要注意,以上命令執行出來的是一行,而不是多行。另外,新舊環境還必須確保num_tokens參數的值保持一致。ide
odb04上新安裝cassandra,安裝完成後,暫不啓動。3d
[root@odb04 ~]# yum -y install cassandra cassandra-tools
因爲新庫是全新安裝的,因此直接同步舊庫的配置文件,作少許修改便可。code
[root@db04 ~]# scp 192.168.120.83:/etc/cassandra/default.conf/cassandra.yaml /etc/cassandra/default.conf/ [root@db04 ~]# scp 192.168.120.83:/etc/cassandra/default.conf/cassandra-env.sh /etc/cassandra/default.conf/ [root@db04 ~]# scp 192.168.120.83:/root/.cassandra/cqlshrc /root/.cassandra
修改cassandra.yaml文件,主要修改如下幾條,替換舊IP爲新IP;initial_token值爲第二步獲取到的每一個IP的tokens。blog
seeds: "192.168.120.84" listen_address: 192.168.120.84 rpc_address: 192.168.120.84 initial_token:
中止源環境的舊庫,並拷貝數據文件到目標環境的對應目錄:token
[root@db03 ~]# systemctl stop cassandra [root@db03 ~]# scp -r /var/lib/cassandra/data/* 192.168.120.84:/var/lib/cassandra/data/
[root@db04 ~]# systemctl start cassandra [root@odb04 ~]# cqlsh 192.168.120.84