Hbase到Solr數據同步及Solr分離實戰

1. 原由

  • 因爲歷史緣由,公司的數據是持久化在HBase中,查詢是經過Solr來實現,這這樣的設計必然涉及到要把Hbase中的數據實時同步到Solr,但全部的服務都在一個同一個集羣及每臺機子都安裝了不少不一樣的服務,致使數據常常丟失,Solr分片也常常在Recovering、Down 狀態中游離,所以決定把Solr剝離出來,造成單獨的集羣,給其它服務減壓。

2. 要求

  • 保證數據不能丟失
  • 切換期間業務能正常使用
  • 切換失敗,能夠迴歸到舊的集羣

3. 總體流程設計

  • HBase Indexer 要同時往新舊集羣同步數據,保證Hbase中的新加數據及時更新

4. 實施步驟

  • 新集羣操做
  1. 在新Solr集羣配置Host以下:
vim /etc/hosts
        172.16.213.8    solrmaster      s27
        172.16.213.12   solrslave1      ss1
        172.16.213.13   solrslave2      ss2
        172.16.213.9    solrslave3      ss3
        172.16.213.10   solrslave4      ss4
        172.16.213.14   solrslave5      ss5
        172.16.213.11   solrslave6      ss6
  1. 新建 Collection
./solr create_collection -c collection_coupon -n collection_coupon -shards 6 -replicationFactor 3 
-d /opt/lucidworks-hdpsearch/solr/server/solr/configsets/coupon_schema_configs/conf

能夠經過scp把舊的配置的配置文件拷貝到新集羣,保證配置一致,以避免出現莫名的錯誤。html

  • 舊集羣操做
  1. 把新的集羣配置到Host文件,千萬記住集羣中的每臺服務器都須要配置,否則在同步的過程當中,會出現不能解析的狀況。
  2. 在Hbase Index 的安裝服務器上添加新的Index任務,用來同步數據到舊的集羣
./hbase-indexer add-indexer -n indexer_coupon_solr -c /opt/lucidworks-hdpsearch/hbase-indexer/demo/coupon_indexer_mapper.xml 
-cp solr.zk=solrslave1:2181,solrslave2:2181,solrslave3:2181,solrslave4:2181,solrslave5:2181,solrslave6:2181/solr -cp solr.collection=collection_coupon

這裏要注意solr.zk 的設置,必定要設置爲新加入solr集羣的zkvim

  1. 檢查新加入的任務是否爲啓動狀態
./hbase-indexer list-indexers

remote_indexer_coupon
  + Lifecycle state: ACTIVE
  + Incremental indexing state: SUBSCRIBE_AND_CONSUME
  + Batch indexing state: INACTIVE
  + SEP subscription ID: Indexer_remote_indexer_coupon
  + SEP subscription timestamp: 2018-05-07T18:04:28.434+08:00
  + Connection type: solr
  + Connection params:
    + solr.zk = solrslave1:2181,solrslave2:2181,solrslave3:2181,solrslave4:2181,solrslave5:2181,solrslave6:2181/solr
    + solr.collection = collection_coupon
  + Indexer config:
      940 bytes, use -dump to see content
  + Indexer component factory: com.ngdata.hbaseindexer.conf.DefaultIndexerComponentFactory
  + Additional batch index CLI arguments:
      (none)
  + Default additional batch index CLI arguments:
      (none)
  + Processes
    + 1 running processes
    + 0 failed processes

在Processes中,關鍵是否有1個任務是否正在運行,若是沒有或者失敗,檢查修復bash

  1. 全量同步,因爲是新加入的集羣,須要第一次作全量同步,而後任務會自動增量同步,執行這個命令須要切換到hdfs用戶下。
 su hdfs
    hadoop jar /opt/lucidworks-hdpsearch/hbase-indexer/tools/hbase-indexer-mr-1.6-SNAPSHOT-job.jar 
--conf /opt/lucidworks-hdpsearch/hbase-indexer/conf/hbase-site.xml --hbase-indexer-zk localhost:2181
--hbase-indexer-name indexer_coupon_solr --reducers 0

注意觀察日誌信息,若是沒有錯誤,繼續下面的操做服務器

  1. 觀察增量同步,這個須要測試人員或者實施配合下,看是否新舊集羣都能正常同步

5. 在整個測試及實施過程遇到的注意事項

  1. Hbase Index 只能跟Hbase安裝在同一個zk集羣下,才能全量、增量同時正常工做
  2. 新加入的集羣主機名要在舊的集羣中的每臺服務器上添加
  3. 添加新的任務,只須要-cp solr.zk 命令參數修改爲新的zk集羣便可,其它配置不須要修改
  4. 在執行全量同步時--hbase-indexer-zk 只須要設置本機

6. 參考文檔

在操做過程當中也能夠參考我之前的文章app

  1. Hbase經常使用操做
  2. Solr經常使用操做
  3. hbase-index經常使用操做

目前採用這樣組合並很少,在整個剝離過程當中遇到的問題能查到的資料並很少,因此決定記錄下來,目前新的集羣已經正式替換舊的集羣,給其它業務減壓,同時新的集羣功能更單純,更好擴展。歡迎有這方面的問題的同行一塊兒交流。

個人QQ羣(碼農之家):53135235

相關文章
相關標籤/搜索