首先這個文章是轉載的,留着後面基礎再紮實一點以後開始學習,感謝原文的做者,寫出瞭如此清晰的學習路線。原文做者文章連接:http://www.javashuo.com/article/p-rtefjikl-do.htmlcss
【不要錯過文末彩蛋】html
申明:前端
本文旨在爲普通程序員(Java程序員最佳)提供一個入門級別的大數據技術學習路徑,不適用於大數據工程師的進階學習,也不適用於零編程基礎的同窗。java
前言:node
正文:mysql
- 1、大數據相關的工做介紹
- 2、大數據工程師的技能要求
- 3、大數據學習規劃
- 4、持續學習資源推薦(書籍,博客,網站)
- 5、項目案例分析(批處理+實時處理)
前言
1、背景介紹linux
本人目前是一名大數據工程師,項目數據50T,日均數據增加20G左右,我的是從Java後端開發,通過3個月的業餘自學成功轉型大數據工程師。nginx
2、大數據介紹git
大數據本質也是數據,可是又有了新的特徵,包括數據來源廣、數據格式多樣化(結構化數據、非結構化數據、Excel文件、文本文件等)、數據量大(最少也是TB級別的、甚至多是PB級別)、數據增加速度快等。程序員
針對以上主要的4個特徵咱們須要考慮如下問題:
-
數據來源廣,該如何採集彙總?,對應出現了Sqoop,Cammel,Datax等工具。
-
數據採集以後,該如何存儲?,對應出現了GFS,HDFS,TFS等分佈式文件存儲系統。
-
因爲數據增加速度快,數據存儲就必須能夠水平擴展。
-
數據存儲以後,該如何經過運算快速轉化成一致的格式,該如何快速運算出本身想要的結果?
對應的MapReduce這樣的分佈式運算框架解決了這個問題;可是寫MapReduce須要Java代碼量很大,因此出現了Hive,Pig等將SQL轉化成MapReduce的解析引擎;
普通的MapReduce處理數據只能一批一批地處理,時間延遲太長,爲了實現每輸入一條數據就能獲得結果,因而出現了Storm/JStorm這樣的低時延的流式計算框架;
可是若是同時須要批處理和流處理,按照如上就得搭兩個集羣,Hadoop集羣(包括HDFS+MapReduce+Yarn)和Storm集羣,不易於管理,因此出現了Spark這樣的一站式的計算框架,既能夠進行批處理,又能夠進行流處理(實質上是微批處理)。
-
然後Lambda架構,Kappa架構的出現,又提供了一種業務處理的通用架構。
-
爲了提升工做效率,加快運速度,出現了一些輔助工具:
- Ozzie,azkaban:定時任務調度的工具。
- Hue,Zepplin:圖形化任務執行管理,結果查看工具。
- Scala語言:編寫Spark程序的最佳語言,固然也能夠選擇用Python。
- Python語言:編寫一些腳本時會用到。
- Allluxio,Kylin等:經過對存儲的數據進行預處理,加快運算速度的工具。
以上大體就把整個大數據生態裏面用到的工具所解決的問題列舉了一遍,知道了他們爲何而出現或者說出現是爲了解決什麼問題,進行學習的時候就有的放矢了。
正文
1、大數據相關工做介紹
大數據方向的工做目前主要分爲三個主要方向:
- 大數據工程師
- 數據分析師
- 大數據科學家
- 其餘(數據挖掘等)
2、大數據工程師的技能要求
附上大數據工程師技能圖:
必須掌握的技能11條
- Java高級(虛擬機、併發)
- Linux 基本操做
- Hadoop(HDFS+MapReduce+Yarn )
- HBase(JavaAPI操做+Phoenix )
- Hive(Hql基本操做和原理理解)
- Kafka
- Storm/JStorm
- Scala
- Python
- Spark (Core+sparksql+Spark streaming )
- 輔助小工具(Sqoop/Flume/Oozie/Hue等)
高階技能6條
- 機器學習算法以及mahout庫加MLlib
- R語言
- Lambda 架構
- Kappa架構
- Kylin
- Alluxio
3、學習路徑
假設天天能夠抽出3個小時的有效學習時間,加上週末天天保證10個小時的有效學習時間;
3個月會有(21*3+4*2*10)*3=423小時的學習時間。
第一階段(基礎階段)
1)Linux學習(跟鳥哥學就ok了)—–20小時
- Linux操做系統介紹與安裝。
- Linux經常使用命令。
- Linux經常使用軟件安裝。
- Linux網絡。
- 防火牆。
- Shell編程等。
官網:https://www.centos.org/download/
中文社區:http://www.linuxidc.com/Linux/2017-09/146919.htm
2)Java 高級學習(《深刻理解Java虛擬機》、《Java高併發實戰》)—30小時
- 掌握多線程。
- 掌握併發包下的隊列。
- 瞭解JMS。
- 掌握JVM技術。
- 掌握反射和動態代理。
官網:https://www.java.com/zh_CN/
中文社區:http://www.java-cn.com/index.html
3)Zookeeper學習(能夠參照這篇博客進行學習:http://www.cnblogs.com/wuxl360/p/5817471.html)
- Zookeeper分佈式協調服務介紹。
- Zookeeper集羣的安裝部署。
- Zookeeper數據結構、命令。
- Zookeeper的原理以及選舉機制。
官網:http://zookeeper.apache.org/
中文社區:http://www.aboutyun.com/forum-149-1.html
第二階段(攻堅階段)
4)Hadoop (《Hadoop 權威指南》)—80小時
-
HDFS
- HDFS的概念和特性。
- HDFS的shell操做。
- HDFS的工做機制。
- HDFS的Java應用開發。
-
MapReduce
- 運行WordCount示例程序。
- 瞭解MapReduce內部的運行機制。
- MapReduce程序運行流程解析。
- MapTask併發數的決定機制。
- MapReduce中的combiner組件應用。
- MapReduce中的序列化框架及應用。
- MapReduce中的排序。
- MapReduce中的自定義分區實現。
- MapReduce的shuffle機制。
- MapReduce利用數據壓縮進行優化。
- MapReduce程序與YARN之間的關係。
- MapReduce參數優化。
-
MapReduce的Java應用開發
官網:http://hadoop.apache.org/
中文文檔:http://hadoop.apache.org/docs/r1.0.4/cn/
中文社區:http://www.aboutyun.com/forum-143-1.html
5)Hive(《Hive開發指南》)–20小時
-
Hive 基本概念
- Hive 應用場景。
- Hive 與hadoop的關係。
- Hive 與傳統數據庫對比。
- Hive 的數據存儲機制。
-
Hive 基本操做
- Hive 中的DDL操做。
- 在Hive 中如何實現高效的JOIN查詢。
- Hive 的內置函數應用。
- Hive shell的高級使用方式。
- Hive 經常使用參數配置。
- Hive 自定義函數和Transform的使用技巧。
- Hive UDF/UDAF開發實例。
-
Hive 執行過程分析及優化策略
官網:https://hive.apache.org/
中文入門文檔:http://www.aboutyun.com/thread-11873-1-1.html
中文社區:http://www.aboutyun.com/thread-7598-1-1.html
6)HBase(《HBase權威指南》)—20小時
- hbase簡介。
- habse安裝。
- hbase數據模型。
- hbase命令。
- hbase開發。
- hbase原理。
官網:http://hbase.apache.org/
中文文檔:http://abloz.com/hbase/book.html
中文社區:http://www.aboutyun.com/forum-142-1.html
7)Scala(《快學Scala》)–20小時
- Scala概述。
- Scala編譯器安裝。
- Scala基礎。
- 數組、映射、元組、集合。
- 類、對象、繼承、特質。
- 模式匹配和樣例類。
- 瞭解Scala Actor併發編程。
- 理解Akka。
- 理解Scala高階函數。
- 理解Scala隱式轉換。
官網:http://www.scala-lang.org/
初級中文教程:http://www.runoob.com/scala/scala-tutorial.html
8)Spark (《Spark 權威指南》)—60小時
-
Spark core
- Spark概述。
- Spark集羣安裝。
- 執行第一個Spark案例程序(求PI)。
-
RDD
- RDD概述。
- 建立RDD。
- RDD編程API(Transformation 和 Action Operations)。
- RDD的依賴關係
- RDD的緩存
- DAG(有向無環圖)
-
Spark SQL and DataFrame/DataSet
- Spark SQL概述。
- DataFrames。
- DataFrame經常使用操做。
- 編寫Spark SQL查詢程序。
-
Spark Streaming
- park Streaming概述。
- 理解DStream。
- DStream相關操做(Transformations 和 Output Operations)。
-
Structured Streaming
-
其餘(MLlib and GraphX )
這個部分通常工做中若是不是數據挖掘,機器學習通常用不到,能夠等到須要用到的時候再深刻學習。
官網:http://spark.apache.org
中文文檔(可是版本有點老):https://www.gitbook.com/book/aiyanbo/spark-programming-guide-zh-cn/details
中文社區:http://www.aboutyun.com/forum-146-1.html
9)Python (推薦廖雪峯的博客—30小時
10)本身用虛擬機搭建一個集羣,把全部工具都裝上,本身開發一個小demo —30小時
能夠本身用VMware搭建4臺虛擬機,而後安裝以上軟件,搭建一個小集羣(本人親測,I7,64位,16G內存,徹底能夠運行起來,如下附上我學習時用虛擬機搭建集羣的操做文檔)
集羣搭建文檔1.0版本
1. 集羣規劃
全部須要用到的軟件:
連接:http://pan.baidu.com/s/1jIlAz2Y
密碼:kyxl
2. 前期準備
-
-
-
-
-
2.1.0 vi /etc/sysconfig/network
-
-
-
2.1.1 vi /etc/sysconfig/network
-
-
-
-
2.1.2 vi /etc/sysconfig/network
-
-
-
2.1.3 vi /etc/sysconfig/network
-
-
-
-
-
-
-
-
-
-
2.3 關閉防火牆(centos 7默認使用的是firewall,centos 6 默認是iptables)
-
-
2.3.0 systemctl
stop firewalld.service (中止firewall)
-
-
2.3.1 systemctl disable firewalld.service (禁止firewall開機啓動)
-
-
-
-
2.4 免密登陸(ys01 ->ys02,03,04)
-
-
ssh-copy-
id ys02(隨後輸入密碼)
-
ssh-copy-
id ys03(隨後輸入密碼)
-
ssh-copy-
id ys04(隨後輸入密碼)
-
-
-
-
-
-
-
cp /usr/
share/zoneinfo/Asia/Shanghai /etc/localtime(將日期文件copy到本地時間中)
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
- 26
- 27
- 28
- 29
- 30
- 31
- 32
- 33
- 34
- 35
- 36
- 37
- 38
- 39
- 40
- 41
- 42
- 43
- 44
- 45
3. 軟件安裝
-
-
-
3.0.0全部軟件的安裝放到/usr/
local/ys/soft目錄下(mkdir /usr/local/ys/soft)
-
-
3.0.1全部軟件安裝到/usr/
local/ys/app目錄下(mkdir /usr/local/ys/app)
-
-
-
-
3.1.1 alt+p 後出現sftp窗口,
cd /usr/local/ys/soft,使用sftp上傳tar包到虛機ys01的/usr/local/ys/soft目錄下
-
-
-
-
-
tar -zxvf jdk-7u80-linux-x64.tar.gz -C /usr/
local/ys/app
-
-
-
-
-
export JAVA_HOME= /usr/local/ys/app/ jdk-7u80
-
export PATH=$PATH:$JAVA_HOME/bin
-
-
-
-
-
-
-
-
tar -zxvf zookeeper-3.4.5.tar.gz -C /usr/
local/ys/app(解壓)
-
-
-
mv zookeeper-3.4.5 zookeeper(重命名文件夾zookeeper-3.4.5爲zookeeper)
-
-
-
-
-
export ZOOKEEPER_HOME=/usr/local/ys/app/zookeeper
-
export PATH=$PATH:$ZOOKEEPER_HOME/bin
-
-
-
-
-
-
-
-
cp zoo_sample.cfg zoo.cfg
-
-
-
dataDir=/usr/
local/ys/app/zookeeper/data
-
dataLogDir=/usr/
local/ys/app/zookeeper/log
-
server.1=ys01:2888:3888 (主機名, 心跳端口、數據端口)
-
-
-
-
-
cd /usr/local/ys/app/zookeeper/
-
-
-
-
3.2.6 在data文件夾下新建myid文件,myid的文件內容爲:
-
-
-
-
-
-
scp -r /usr/
local/ys/app/zookeeper ys02:/usr/local/ys/app/
-
scp -r /usr/
local/ys/app/zookeeper ys04:/usr/local/ys/app/
-
-
-
-
-
-
-
-
-
-
zkServer.sh status(查看集羣狀態,主從信息)
-
-
-
-
3.3.0 alt+p 後出現sftp窗口,使用sftp上傳tar包到虛機ys01的/usr/
local/ys/soft目錄下
-
-
-
-
-
tar -zxvf cenos-7-hadoop-2.6.4.tar.gz -C /usr/
local/ys/app
-
-
-
-
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
- 26
- 27
- 28
- 29
- 30
- 31
- 32
- 33
- 34
- 35
- 36
- 37
- 38
- 39
- 40
- 41
- 42
- 43
- 44
- 45
- 46
- 47
- 48
- 49
- 50
- 51
- 52
- 53
- 54
- 55
- 56
- 57
- 58
- 59
- 60
- 61
- 62
- 63
- 64
- 65
- 66
- 67
- 68
- 69
- 70
- 71
- 72
- 73
- 74
- 75
- 76
- 77
- 78
- 79
- 80
- 81
- 82
- 83
- 84
- 85
- 86
- 87
- 88
- 89
- 90
hdfs-site.xml
yarn-sifite.xml
-
-
-
-
-
-
-
-
3.3.3.1啓動zookeeper集羣(分別在ys0一、ys0二、ys04上啓動zk)
-
cd /usr/local/ys/app/zookeeper-3.4.5/bin/
-
-
-
-
-
3.3.3.2啓動journalnode(分別在在mini五、mini六、mini7上執行)
-
cd /usr/local/ys/app/hadoop-2.6.4
-
sbin/hadoop-daemon.sh start journalnode
-
-
-
-
-
-
-
scp -r tmp/ ys02:/usr/
local/ys /app/hadoop-2.6.4/
-
-
-
3.3.3.4格式化ZKFC(在ys01上執行一次便可)
-
-
-
-
-
-
-
-
-
-
-
-
-
-
3.4.1 alt+p 後出現sftp窗口,
cd /usr/local/ys/soft,使用sftp上傳tar包到虛機ys01的/usr/local/ys/soft目錄下
-
-
-
-
tar -zxvf hive-0.9.0.tar.gz -C /usr/
local/ys/app
-
-
-
-
3.4.3.1配置HIVE_HOME環境變量 vi conf/hive-env.sh 配置其中的
$hadoop_home
-
-
3.4.3.2配置元數據庫信息 vi hive-site.xml
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
- 26
- 27
- 28
- 29
- 30
- 31
- 32
- 33
- 34
- 35
- 36
- 37
- 38
- 39
- 40
- 41
- 42
- 43
- 44
- 45
- 46
- 47
- 48
- 49
- 50
- 51
添加以下內容:
-
3.4.4 安裝hive和mysq完成後,將mysql的鏈接jar包拷貝到
$HIVE_HOME/lib目錄下
-
若是出現沒有權限的問題,在mysql受權(在安裝mysql的機器上執行)
-
-
-
GRANT ALL PRIVILEGES ON *.* TO
'root'@'%' IDENTIFIED BY 'root' WITH GRANT OPTION;
-
-
-
3.4.5 Jline包版本不一致的問題,須要拷貝hive的lib目錄中jline.2.12.jar的jar包替換掉hadoop中的 /usr/
local/ys/app/hadoop-2.6.4/share/hadoop/yarn/lib/jline-0.9.94.jar
-
-
-
-
-
-
-
http://kafka.apache.org/downloads.html
-
-
wget http://mirrors.hust.edu.cn/apache/kafka/0.8.2.2/kafka_2.11-0.8.2.2.tgz
-
-
-
tar -zxvf /usr/
local/ys/soft/kafka_2.11-0.8.2.2.tgz -C /usr/local/ys/app/
-
-
ln -s kafka_2.11-0.8.2.2 kafka
-
-
-
-
/usr/
local/ys/app/kafka/config/server.properties
-
/usr/
local/ys/app/kafka/config/server.properties.bak
-
vi /usr/
local/ys/kafka/config/server.properties
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
- 26
- 27
- 28
- 29
輸入如下內容:
-
-
scp -r /usr/
local/ys/app/kafka_2.11-0.8.2.2 ys02: /usr/local/ys/app/
-
scp -r /usr/
local/ys/app/kafka_2.11-0.8.2.2 ys03: /usr/local/ys/app/
-
scp -r /usr/
local/ys/app/kafka_2.11-0.8.2.2 ys04: /usr/local/ys/app/
-
-
-
ln -s kafka_2.11-0.8.2.2 kafka
-
-
-
依次修改各服務器上配置文件的的broker.id,分別是0,1,2不得重複。
-
-
-
-
bin/kafka-server-start.sh config/server.properties
-
-
-
-
3.6.1 alt+p 後出現sftp窗口,
cd /usr/local/ys/soft,使用sftp上傳tar包到虛機ys01的/usr/local/ys/soft目錄下
-
-
-
tar -zxvf /usr/
local/ys/soft/ spark-1.6.1-bin-hadoop2.6.tgz -C /usr/local/ys/app/
-
-
3.6.3 修改Spark配置文件(兩個配置文件spark-env.sh和slaves)
-
cd /usr/local/ys/soft/spark-1.6.1-bin-hadoop2.6
-
進入conf目錄並重命名並修改spark-env.sh.template文件
-
-
mv spark-env.sh.template spark-env.sh
-
-
-
export JAVA_HOME=/usr/java/jdk1.7.0_45
-
export SPARK_MASTER_PORT=7077
-
export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=ys01,ys02,ys04 -Dspark.deploy.zookeeper.dir=/spark"
-
-
-
mv slaves.template slaves
-
-
在該文件中添加子節點所在的位置(Worker節點)
-
-
-
-
-
-
-
scp -r spark-1.6.1-in-hadoop2.6/ ys02:/usr/
local/ys/app
-
scp -r spark-1.6.1-bin-hadoop2.6/ ys03:/usr/
local/ys/app
-
scp -r spark-1.6.1-bin-hadoop2.6/ ys04:/usr/
local/ys/app
-
-
-
在ys01上執行sbin/start-all.sh腳本
-
而後在ys02上執行sbin/start-master.sh啓動第二個Master
-
-
-
-
-
解壓azkaban-web-server-2.5.0.tar.gz
-
命令: tar –zxvf /usr/
local/ys/soft/azkaban-web-server-2.5.0.tar.gz -C /usr/local/ys/app/azkaban
-
將解壓後的azkaban-web-server-2.5.0 移動到 azkaban目錄中,並從新命名 webserver
-
命令: mv azkaban-web-server-2.5.0 ../azkaban
-
-
mv azkaban-web-server-2.5.0 webserver
-
-
-
解壓azkaban-executor-server-2.5.0.tar.gz
-
命令:tar –zxvf /usr/
local/ys/soft/azkaban-executor-server-2.5.0.tar.gz -C /usr/local/ys/app/azkaban
-
將解壓後的azkaban-executor-server-2.5.0 移動到 azkaban目錄中,並從新命名 executor
-
命令:mv azkaban-executor-server-2.5.0 ../azkaban
-
-
mv azkaban-executor-server-2.5.0 executor
-
-
-
解壓: azkaban-sql-script-2.5.0.tar.gz
-
命令:tar –zxvf azkaban-sql-script-2.5.0.tar.gz
-
-
-
mysql> create database azkaban;
-
-
-
mysql>
source /usr/local/ys/soft/azkaban-2.5.0/create-all-sql-2.5.0.sql;
-
-
-
參考地址: http://docs.codehaus.org/display/JETTY/How+to+configure+SSL
-
命令: keytool -keystore keystore -
alias jetty -genkey -keyalg RSA
-
運行此命令後,會提示輸入當前生成 keystor的密碼及相應信息,輸入的密碼請勞記,信息以下(此處我輸入的密碼爲:123456)
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
CN=Unknown, OU=Unknown, O=Unknown, L=Unknown, ST=Unknown, C=CN 正確嗎?
-
-
輸入<jetty>的主密碼(若是和 keystore 密碼相同,按回車):
-
-
完成上述工做後,將在當前目錄生成 keystore 證書文件,將keystore 考貝到 azkaban web服務器根目錄中.如:cp keystore azkaban/webserver
-
-
-
-
先生成時區配置文件Asia/Shanghai,用交互式命令 tzselect 便可
-
-
cp /usr/share/zoneinfo/Asia/Shanghai /etc/localtime
-
-
-
進入azkaban web服務器安裝目錄 conf目錄
-
-
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
- 26
- 27
- 28
- 29
- 30
- 31
- 32
- 33
- 34
- 35
- 36
- 37
- 38
- 39
- 40
- 41
- 42
- 43
- 44
- 45
- 46
- 47
- 48
- 49
- 50
- 51
- 52
- 53
- 54
- 55
- 56
- 57
- 58
- 59
- 60
- 61
- 62
- 63
- 64
- 65
- 66
- 67
- 68
- 69
- 70
- 71
- 72
- 73
- 74
- 75
- 76
- 77
- 78
- 79
- 80
- 81
- 82
- 83
- 84
- 85
- 86
- 87
- 88
- 89
- 90
- 91
- 92
- 93
- 94
- 95
- 96
- 97
- 98
- 99
- 100
- 101
- 102
- 103
- 104
- 105
- 106
- 107
- 108
- 109
- 110
- 111
- 112
- 113
- 114
內容說明以下:
-
*Azkaban Personalization Settings
-
azkaban.name=Test
#服務器UI名稱,用於服務器上方顯示的名字
-
azkaban.label=My Local Azkaban
#描述
-
azkaban.color=
#FF3601 #UI顏色
-
azkaban.
default.servlet.path=/index #
-
web.resource.dir=web/
#默認根web目錄
-
default.timezone.id=Asia/Shanghai #默認時區,已改成亞洲/上海 默認爲美國
-
-
*Azkaban UserManager
class
-
user.manager.
class=azkaban.user.XmlUserManager #用戶權限管理默認類
-
user.manager.xml.file=conf/azkaban-users.xml
#用戶配置,具體配置參加下文
-
-
-
executor.
global.properties=conf/global.properties # global配置文件所在位置
-
azkaban.project.dir=projects
#
-
-
database.type=mysql
#數據庫類型
-
-
mysql.host=localhost
#數據庫鏈接IP
-
mysql.database=azkaban
#數據庫實例名
-
-
mysql.password=Root123456
#數據庫密碼
-
mysql.numconnections=
100 #最大鏈接數
-
-
-
-
-
jetty.maxThreads=
25 #最大線程數
-
jetty.ssl.port=
8443 #Jetty SSL端口
-
jetty.port=
8081 #Jetty端口
-
jetty.keystore=keystore
#SSL文件名
-
jetty.password=
123456 #SSL文件密碼
-
jetty.keypassword=
123456 #Jetty主密碼 與 keystore文件相同
-
jetty.truststore=keystore
#SSL文件名
-
jetty.trustpassword=
123456 # SSL文件密碼
-
-
-
executor.port=
12321 #執行服務器端
-
-
-
mail.sender=xxxxxxxx@
163.com #發送郵箱
-
mail.host=smtp
.163.com #發送郵箱smtp地址
-
mail.user=xxxxxxxx
#發送郵件時顯示的名稱
-
mail.password=**********
#郵箱密碼
-
job.failure.email=xxxxxxxx@
163.com #任務失敗時發送郵件的地址
-
job.success.email=xxxxxxxx@
163.com #任務成功時發送郵件的地址
-
lockdown.create.projects=
false #
-
cache.directory=cache
#緩存目錄
-
-
3.7.7azkaban 執行服務器executor配置
-
進入執行服務器安裝目錄conf,修改azkaban.properties
-
-
-
default.timezone.id=Asia/Shanghai #時區
-
-
-
azkaban.jobtype.plugin.dir=plugins/jobtypes
#jobtype 插件所在位置
-
-
-
executor.
global.properties=conf/global.properties
-
azkaban.project.dir=projects
-
-
-
database.type=mysql
#數據庫類型(目前只支持mysql)
-
-
mysql.host=
192.168.20.200 #數據庫IP地址
-
mysql.database=azkaban
#數據庫實例名
-
-
mysql.password=Root23456
#數據庫密碼
-
mysql.numconnections=
100 #最大鏈接數
-
-
-
executor.maxThreads=
50 #最大線程數
-
executor.port=
12321 #端口號(如修改,請與web服務中一致)
-
executor.flow.threads=
30 #線程數
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
- 26
- 27
- 28
- 29
- 30
- 31
- 32
- 33
- 34
- 35
- 36
- 37
- 38
- 39
- 40
- 41
- 42
- 43
- 44
- 45
- 46
- 47
- 48
- 49
- 50
- 51
- 52
- 53
- 54
- 55
- 56
- 57
- 58
- 59
- 60
- 61
- 62
- 63
- 64
- 65
- 66
- 67
- 68
- 69
- 70
- 71
- 72
- 73
- 74
- 75
-
-
進入
azkaban web服務器conf目錄,修改azkaban-users.xml
-
vi azkaban-users.xml 增長 管理員用戶
-
-
-
-
-
-
nohup bin/azkaban-web-start.sh
1>/tmp/azstd.out 2>/tmp/azerr.out &
-
-
-
-
-
bin/azkaban-executor-start.sh
-
-
-
啓動完成後,在瀏覽器(建議使用谷歌瀏覽器)中輸入https:
-
-
-
-
-
-
-
-
-
tar –zxvf /usr/
local/ys/soft/hbase-0.99.2-bin.tar.gz -C /usr/local/ys/app
-
-
-
-
-
-
-
-
-
export JAVA_HOME=/usr/local/ys/app/jdk1.7.0_80
-
export HBASE_CLASSPATH=/usr/local/ys/app/hadoop-2.6.4/etc/hadoop
-
export HBASE_MANAGES_ZK=false #若是使用獨立安裝的zookeeper這個地方就是false(此處使用本身的zookeeper)
-
-
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
- 26
- 27
- 28
- 29
- 30
- 31
- 32
- 33
- 34
- 35
- 36
- 37
-
-
-
-
-
-
-
-
3.9.4將Hadoop的配置文件hdfs-site.xml和core-site.xml拷貝到HBase配置文件中
-
cp /usr/
local/ys/app/Hadoop-2.6.4/etc/hadoop/hdfs-site.xml /usr/local/ys/app/hbase/conf
-
cp /usr/
local/ys/app/hadoop-2.6.4/etc/hadoop/core-site.xml /usr/local/ys/app/hbase/conf
-
-
-
scp –r /usr/
local/ys/app/hbase ys02: /usr/local/ys/app
-
scp –r /usr/
local/ys/app/hbase ys03: /usr/local/ys/app
-
scp –r /usr/
local/ys/app/hbase ys04: /usr/local/ys/app
-
-
-
cd /usr/
local/ys/app/hbase/bin
-
-
-
-
-
進入hbase的shell:hbase shell
-
-
-
-
3.10KAfkaOffsetMonitor(Kafka集羣的監控程序,本質就是一個jar包)
-
-
-
-
-
-
nohup java -cp KafkaOffsetMonitor-assembly-
0.2.1.jar com.quantifind.kafka.offsetapp.OffsetGetterWeb --zk ys01,ys02,ys04 --refresh 5.minutes --retain 1.day --port 8089 $
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
- 26
- 27
- 28
- 29
- 30
- 31
- 32
- 33
- 34
4. 集羣調優
-
4.1 輔助工具儘可能不安裝到數據或者運算節點,避免佔用過多計算或內存資源。
-
-
4.2 dataNode和spark的slave節點儘可能在一塊兒;這樣運算的時候就能夠避免經過網絡拉取數據,加快運算速度。
-
-
4.3 Hadoop集羣機架感知配置,配置以後可使得數據在同機架的不一樣機器2份,而後其餘機架機器1份,但是兩臺機器四臺虛機沒有必要配感知我的感受。
-
-
-
第三階段(輔助工具工學習階段)
11)Sqoop(CSDN,51CTO ,以及官網)—20小時
- 數據導出概念介紹
- Sqoop基礎知識
- Sqoop原理及配置說明
- Sqoop數據導入實戰
- Sqoop數據導出實戰、
- Sqoop批量做業操做
推薦學習博客:http://student-lp.iteye.com/blog/2157983
官網:http://sqoop.apache.org/
12)Flume(CSDN,51CTO ,以及官網)—20小時
- FLUME日誌採集框架介紹。
- FLUME工做機制。
- FLUME核心組件。
- FLUME參數配置說明。
- FLUME採集nginx日誌案例(案例必定要實踐一下)
推薦學習博客:http://www.aboutyun.com/thread-8917-1-1.html
官網:http://flume.apache.org
13)Oozie(CSDN,51CTO ,以及官網)–20小時
- 任務調度系統概念介紹。
- 經常使用任務調度工具比較。
- Oozie介紹。
- Oozie核心概念。
- Oozie的配置說明。
- Oozie實現mapreduce/hive等任務調度實戰案例。
推薦學習博客:http://www.infoq.com/cn/articles/introductionOozie
官網:http://oozie.apache.org/
14)Hue(CSDN,51CTO ,以及官網)–20小時
推薦學習博客:http://ju.outofmemory.cn/entry/105162
官網:http://gethue.com/
第四階段(不斷學習階段)
天天都會有新的東西出現,須要關注最新技術動態,不斷學習。任何通常技術都是先學習理論,而後在實踐中不斷完善理論的過程。
備註
1)若是你以爲本身看書效率太慢,你能夠網上搜集一些課程,跟着課程走也OK 。若是看書效率不高就很網課,相反的話就本身看書。
2)企業目前更傾向於使用Spark進行微批處理,Storm只有在對時效性要求極高的狀況下,纔會使用,因此能夠作了解。重點學習Spark Streaming。
3)快速學習的能力、解決問題的能力、溝通能力**真的很重要。
4)要善於使用StackOverFlow和Google(遇到解決不了的問題,先Google,若是Google找不到解決方能就去StackOverFlow提問,通常印度三哥都會在2小時內回答你的問題)。
5)視頻課程推薦:
能夠去萬能的淘寶購買一些視頻課程,你輸入「大數據視頻課程」,會出現不少,多購買幾份(100塊之內能夠搞定),而後選擇一個適合本身的。我的認爲小象學院的董西成和陳超的課程含金量會比較高。
4、持續學習資源推薦
- Apache 官網(http://apache.org/)
- Stackoverflow(https://stackoverflow.com/)
- Github(https://github.com/)
- Cloudra官網(https://www.cloudera.com/)
- Databrick官網(https://databricks.com/)
- About 雲 :http://www.aboutyun.com/
- CSDN,51CTO (http://www.csdn.net/,http://www.51cto.com/)
- 至於書籍噹噹一搜會有不少,其實內容都差很少。
5、項目案例分析
1)點擊流日誌項目分析(此處借鑑CSDN博主的文章,因爲沒有受權,因此就沒有貼過來,下面附上連接)—-批處理
http://blog.csdn.net/u014033218/article/details/76847263
2)Spark Streaming在京東的項目實戰(京東的實戰案例值得好好研究一下,因爲沒有受權,因此就沒有貼過來,下面附上連接)—實時處理
http://download.csdn.net/download/csdndataid_123/8079233
最後但卻很重要一點:天天都會有新的技術出現,要多關注技術動向,持續學習。
以上內容不保證一年之後仍適用。
【GitChat達人課】
- 前端惡棍 · 大漠窮秋 :《Angular 初學者快速上手教程 》
- Python 中文社區聯合創始人 · Zoom.Quiet :《GitQ: GitHub 入味兒 》
- 前端顏值擔當 · 餘博倫:《如何從零學習 React 技術棧 》
- GA 最先期使用者 · GordonChoi:《GA 電商數據分析實踐課》
- 技術總監及合夥人 · 楊彪:《Gradle 從入門到實戰》
- 混元霹靂手 · 江湖前端:《Vue 組件通訊全揭祕》
- 知名互聯網公司安卓工程師 · 張拭心:《安卓工程師跳槽面試全指南》