在完成Atlas編譯之後,就能夠進行Atlas的安裝了。Atlas的安裝主要是安裝Atlas的Server端,也就Atlas的管理頁面,並確保Atlas與Kafka Hbase Solr等組件的集成。node
Atlas的系統架構以下,在確保 底層存儲與UI界面正常後,以後就能夠進行與Hive等組件的集成調試了。apache
安裝以前 先要準備好bootstrap
JDK1.8vim
Zookeeper服務器
Kafka架構
Hbaseapp
Solr大數據
在啓動Atlas時會配置這些環境變量的地址,因此必定要確保以上組件正常運行。url
因爲在編譯時能夠選擇內部集成,因此這些Atlas是能夠自帶的,可是JDK必定要安裝好。調試
在安裝Altas中,須要Solr 預先建立好collection
bin/solr create -c vertex_index -shards 3 -replicationFactor 2 bin/solr create -c edge_index -shards 3 -replicationFactor 2 bin/solr create -c fulltext_index -shards 3 -replicationFactor 2
在solr中驗證建立成功。
到編譯好的包的路徑下 apache-atlas-sources-2.1.0/distro/target
將生成好的安裝包 apache-atlas-2.1.0-server.tar.gz 拷貝到目標路徑下。
解壓:
tar -zxvf apache-atlas-2.1.0-server.tar.gz
進入conf目錄下:
vi atlas-env.sh
在此指定JAVA_HOME和是否要用內嵌啓動
export JAVA_HOME=/opt/jdk1.8.0_191/ export MANAGE_LOCAL_HBASE=true export MANAGE_LOCAL_SOLR=true
若是使用內嵌,那麼配置結束,直接去 啓動Atlas
可是大部分時候,須要使用已經有的組件進行集成,因此設置爲false。
export JAVA_HOME=/opt/jdk1.8.0_191/ export MANAGE_LOCAL_HBASE=false export MANAGE_LOCAL_SOLR=false #注意修改Hbase配置文件路徑 export HBASE_CONF_DIR=/opt/hbase/conf
修改其餘配置
vim atlas-application.properties
這裏就是設置Hbase Solr等配置
#Hbase地址 就是Hbase配置的zookeeper地址 atlas.graph.storage.hostname=slave01:2181,slave02:2181,slave03:2181 atlas.audit.hbase.zookeeper.quorum=slave01:2181,slave02:2181,slave03:2181 #solr服務器地址 atlas.graph.index.search.solr.http-urls=http://slave01:8984/solr #kafka地址 atlas.notification.embedded=false atlas.kafka.zookeeper.connect=slave01:2181,slave02:2181,slave03:2181 atlas.kafka.bootstrap.servers=slave01:9092,slave02:9092,slave03:9092 #atlas地址 atlas.rest.address=http://slave01:21000
bin/atlas_start.py
啓動成功後訪問:
admin/admin登陸
成功!!
hbase的問題 個人是由於沒有指定對hbase的配置文件
hbase配置文件的 zookeeper.znode.parent 並非 /hbase/hbaseid
提示沒法找到solr,在填寫atlas.graph.index.search.solr.zookeeper-url時須要添加znode,如2181/solr
具體是什麼去solr配置文件裏,或者頁面上找
Solr有問題,檢查Solr 確保Solr正常啓動了
solr須要先建 三個索引 vertex_index
, edge_index
, fulltext_index
瞭解大數據實時計算 感覺數據流動之美 歡迎關注 實時流式計算