1.課程環境html
本課程涉及的技術產品及相關版本:java
技術node |
版本web |
Linux算法 |
CentOS 6.5shell |
Java數據庫 |
1.7緩存 |
Hadoop2.0安全 |
2.6.0性能優化 |
Hadoop1.0 |
1.2.1 |
Zookeeper |
3.4.6 |
CDH Hadoop |
5.3.0 |
Vmware |
10 |
Hive |
0.13.1 |
HBase |
0.98.6 |
Impala |
2.1.0 |
Oozie |
4.0.0 |
Hue |
3.7.0 |
2.內容簡介
本教程針對有必定Hadoop基礎的學員,深刻講解以下方面的內容:
一、Hadoop2.0高階運維,包括Hadoop節點增長刪除、HDFS和YARN的HA實現,
HDFS Federation實現等
二、搭建本地Yum部署CDH5的重要組件和優化配置
三、Impala、Oozie和Hue的部署、使用操做及調優
四、Hadoop安全認證及受權管理
五、Hadoop各組件性能調優
《Hadoop2.0/YARN深刻淺出(Hadoop2.0、Spark、Storm和Tez)》http://www.ibeifeng .com/goods-435.html
《Hadoop大數據零基礎高端實戰培訓系列配文本挖掘項目(挑戰年薪50萬)》http://www.ibeifeng .com/goods-428.html
《基於Greenplum Hadoop分佈式平臺的大數據解決方案及商業應用案例剖析》http://www.ibeifeng. com/goods-377.html
迪倫老師:某知名500強企業大數據平臺架構師,大數據處理專家。長期從事於大數據基礎架構建設、企業級數據倉庫、大數據分析、挖掘等領域項目的開發及管理。
熟悉多種技術架構的綜合運用,包括Hadoop、Greenplum、Oracle、Cognos、Datastage等。對於Hadoop生態系統,特別是Hive、HBase、Mahout等開源框架的業務
應用、 可靠性、基礎架構和高級應用等方面有着豐富經驗。
迪倫老師在北風網參與的其餘課程連接:
單品課程:
《基於Hadoop2.0、YARN技術的大數據高階應用實戰(Hadoop2.0\YARN\MapReduce\數據挖掘\項目實戰) 》 http://www.ibeifeng. com/goods-440.html
《深刻淺出Hadoop Mahout數據挖掘實戰(算法分析、項目實戰、中文分詞技術)》 http://www.ibeifeng. com/goods-438.html
《MapReduce/Hbase進階提高(原理剖析、實戰演練)》 http://www.ibeifeng .com/goods-438.html
《Hadoop2.0/YARN深刻淺出(Hadoop2.0、Spark、Storm和Tez)》http://www.ibeifeng. com/goods-435.html
《Hadoop大數據零基礎高端實戰培訓系列配文本挖掘項目(挑戰年薪50萬)》http://www.ibeifeng. com/goods-428.html
《基於Greenplum Hadoop分佈式平臺的大數據解決方案及商業應用案例剖析》http://www.ibeifeng. com/goods-377.html
1、Hadoop2.0 動態增長節點
01.1 怎樣添加節點
01.2 添加新的服務器節點
01.3 新節點操做系統配置
01.4 新節點Hadoop配置
01.5 調整新節點副本數
2、Hadoop2.0 動態刪除節點
02.1 怎樣刪除節點
02.2 刪除Hadoop2.0集羣節點
02.3 測試監控刪除節點後的集羣
3、Hadoop2.0 HDFS HA部署
03.1 HDFS HA的實現方式
03.2 HDFS HA的實現步驟
03.3 HA集羣環境配置
03.4 HA hdfs-site.xml參數配置
03.5 HA其餘參數配置
03.6 JournalNode服務啓動及初始化
03.7 HDFS HA服務啓動及手工切換
03.8 基於ZK自動切換模式的實現
03.9 HDFS HA中ZooKeeper部署
03.10 配置HDFS HA自動切換模式
03.11 HDFS HA自動故障切換測試
4、Hadoop2.0 HDFS HA+Federation部署
04.1 HDFS Federation的實現方式及規劃
04.2 HDFS Federation的配置步驟
04.3 配置HDFS Federation
04.4 HDFS Federation服務啓動及測試
04.5 HDFS HA+Federation實現及配置步驟
04.6 HDFS HA+Federation的配置及服務啓動
04.7 HDFS HA+Federation集羣故障模擬測試
5、Hadoop升級
05.1 Hadoop內部升級的實現
05.2 Hadoop1.0升級到2.0步驟
05.3 HDFS升級配置操做
05.4 執行HDFS升級並測試驗證
05.5 MapReduce升級
6、Hadoop2.0 YARN HA部署
06.1 YARN HA的實現
06.2 YARN HA的配置步驟及其相關參數
06.3 Hadoop2.0 YARN HA配置操做
06.4 YARN HA服務啓動及測試
06.5 YARN HA測試及錯誤處理
06.6 解決YARN HA啓動錯誤的問題
06.7 HDFS+YARN HA故障模擬測試
7、Hadoop安全管理深度剖析
07.1-Hadoop安全背景
07.2-Hadoop1.0安全問題及處理機制
07.3 Kerberos基本概念及受權認證過程
07.4 Kerberos在Hadoop中的應用
07.5 Hadoop1.0安全機制的具體實現
07.6 RPC安全之身份認證機制
07.7 RPC安全之服務訪問控制機制
07.8 HDFS安全策略
07.9 Mapreduce安全策略
07.10 Hadoop上層服務的安全策略
07.11 Hadoop1.0安全機制的應用場景
07.12 Hadoop2.0安全認證機制的實現
07.13 Yarn中的各種令牌及其做用
07.14 Hadoop2.0受權機制的實現
8、搭建本地yum安裝CDH5 Hadoop集羣
08.1 爲何選擇CDH
08.2 CDH的體系架構
08.3 CDH的集羣規劃
08.4 CDH操做系統配置步驟
08.5 CDH集羣主機名及網絡配置
08.6 操做系統yum源配置
08.7 CDH5的yum源配置
08.8 主機間信任關係的創建
08.9 NTP時間同步服務配置
08.10 JDK安裝
08.11 安裝和配置HDFS步驟
08.12 YUM安裝HDFS
08.13 CDH集羣環境變量配置
08.14 CDH5 HDFS核心配置
08.15 HDFS其餘重要配置及服務啓動
08.16 安裝和配置YARN的步驟
08.17 YARN的安裝
08.18 YARN的核心參數配置
08.19 MapReduce相關參數配置
08.20 服務啓動及驗證
08.21 CDH5集羣測試
08.22 webHDFS的使用
9、基於Kerberos認證的Hadoop安全管理
09.1 Kerberos集羣規劃及配置步驟
09.2 Kerberos安裝配置
09.3 Kerberos數據庫建立及服務啓動
09.4 Kerberos的使用及測試
09.5 Kerberos principal和keytab概念剖析
09.6 HDFS上配置Kerberos步驟
09.7 HDFS principal建立及生成keytab文件
09.8 HDFS keytab文件部署
09.9 HDFS安全參數配置
09.10 Namenode服務的安全啓動
09.11 Datanode服務的安全啓動
09.12 HDFS安全使用測試
09.13 YARN配置Kerberos步驟
09.14 YARN principal建立及keytab文件生成部署
09.15 YARN安全參數配置
09.16 YARN服務安全啓動及測試
09.17 自動化集羣管理
10、Zookeeper&HIVE&HBASE&LDAP實現Kerberos認證
10.01 Zookeeper配置Kerberos步驟
10.02 經過Yum安裝Zookeeper
10.03 Zookeeper Server配置Kerberos
10.04 Zookeeper Client配置kerberos
10.05 HBase相關概念深度解析
10.06 HBase配置Kerberos步驟
10.07 經過Yum安裝HBase 01
10.08 經過Yum安裝HBase 02
10.09 爲HBase配置Kerberos
10.10 HBase啓動錯誤診斷及測試
10.11 CDH Hive架構及配置Kerberos認證步驟
10.12 安裝HIVE組件及配置PostgreSQL
10.13 Hive的基礎配置
10.14 爲Hive配置Kerberos認證
10.15 Hive shell及Beeline安全訪問測試
10.16 hive與hbase集成原理
10.17 hive-hbase集成安裝配置
10.18 hive-hbase映射表建立
10.19 LDAP基本概念
10.20 LDAP模式設計
10.21 LDAP集成Kerberos配置步驟
10.22 LDAP安裝和基礎配置
10.23 LDAP集成Kerberos及數據庫建立
10.24 導入系統用戶到LDAP
10.25 OpenLDAP客戶端配置和使用
11、Impala大數據分析引擎
11.01 什麼是Impala
11.02 Impala架構和進程
11.03 Impala安裝配置步驟
11.04 Impala安裝部署
11.05 Impala配置及服務啓動
11.06 Impala配置Kerberos認證
11.07 Impala啓停故障處理及測試
11.08 Impala的使用
11.09 Impala-shell基本功能的使用
11.10 Impala鏈接查詢
11.11 Impala聚合及子查詢
11.12 Impala分區表的使用
11.13 Impala的優化
11.14 Impala收集統計信息及生成查詢計劃
11.15 HDFS緩存池在Impala中的使用
12、Oozie&Hue的使用及安全認證管理
12.01 什麼是oozie
12.02 Oozie安裝和配置步驟
12.03 Oozie安裝和基本配置
12.04 Oozie安全配置及服務啓動
12.05 Oozie啓動問題處理
12.06 Oozie Mapreduce做業測試
12.07 Oozie經常使用命令及工做流程定義
12.08 Oozie MR&hive&sqoop動做節點配置
12.09 Oozie pig&ssh&java&sw&shell動做節點配置
12.10 Oozie Coordinator做業
12.11 Coordinator動做和應用定義
12.12 Oozie Bundle應用定義
12.13 什麼是Hue
12.14 安裝配置Hue-HDFS&YARN
12.15 Hue配置Hive、Kerberos、Imapala和Zookeeper等
12.16 Hue安裝啓動問題處理
12.17 Hue頁面初始化及查詢問題解決
12.18 Hue控制檯的使用
十3、Hadoop2.0受權及資源調度管理
13.01 Hadoop受權管理基礎知識
13.02 服務訪問受權
13.03 服務級受權配置實例
13.04 隊列訪問控制列表
13.05 隊列訪問控制配置實例
13.06 公平調度器配置步驟
13.07 公平調度器配置實例
13.08公平調度器驗證
13.09 容量調度器配置
13.10 容量調度器配置
13.11 容量調度配置測試驗證
13.12 基於標籤的調度器
十4、Hadoop壓縮
14.01 hadoop壓縮概念及支持的格式
14.02 hadoop經常使用幾種壓縮格式對比
14.03 壓縮格式的選擇
14.04 Snappy壓縮配置
14.05 Snappy&Gzip壓縮測試
14.06 Hadoop LZO壓縮安裝配置步驟
14.07 cdh5 lzo壓縮安裝
14.08 lzo安裝問題處理
14.09 lzo壓縮配置及測試
14.10 hive配置使用lzo壓縮
14.11 Hive外部表使用lzo壓縮文件
14.12 Hive使用lzo壓縮實例
14.13 hbase壓縮配置
14.14 hbase壓縮測試
十5、Hadoop文件存儲格式
15.01 大數據存儲需求及方式
15.02 Hadoop經常使用文件格式
15.03 HDFS塊內三種存儲方式實例
15.04 RCFile的設計和實現
15.05 ORCFile文件結構
15.06 Hive文件存儲格式的選擇
15.07 Hive不一樣文件格式數據加載測試
15.08 多種文件格式查詢存儲效率測試
15.09 RCFile性能測試
十6、Hadoop調優
16.01 調優思路
16.02 應用程序優化
16.03 Linux系統優化
16.04 Hadoop實現機制調優
16.05 機架感知策略實現
16.06 Hadoop參數調優綜述及NameNode調優
16.07 Datanode參數調優
16.08 集中化緩存管理
16.09 集中緩存架構和概念
16.10 緩存管理及緩存池命令
16.11 緩存操做實例
16.12 緩存參數配置
16.13 YARN調優概述
16.14 Slave和Container資源分配
16.15 配置資源分配和進程大小屬性
16.16 YARN內存監控
16.17 Reducer調度調優
16.18 Mapreduce其餘關鍵參數調優
目標一. 掌握Hadoop2.0動態增長和刪除節點的維護操做
目標二. 掌握經過Hadoop2.0 HDFS&YARN HA+Federation技術來搭建高可用集羣的技能
目標三. 掌握Hadoop2.0升級操做
目標四. 熟悉Hadoop安全管理的知識
目標五. 掌握經過搭建本地yum來部署CDH5 Hadoop集羣,包括HBase、Hive、Impala、Oozie和Hue等
目標六. 掌握Impala、Oozie和Hue的安裝、使用及優化等
目標七. 掌握基於Kerberos認證的Hadoop安全管理的技能
目標八. 掌握Hadoop安全受權管理的技能
目標九. 掌握Hadoop性能優化的技巧
<未完待續>
亮點1、Hadoop2.6.0、CDH5.3 等採用的均是目前爲止最新的版本,技術的前沿性能夠保證讓您的技術在二到三年內不會落伍.
亮點2、理論與實戰相結合,由淺入深。即照顧到基礎學員,又照顧到有必定經驗的學員。
亮點3、課程全部實例都有操做演示,手把手一步步帶領學員從入門到精通.
一.課程針對人羣
本課程針對掌握必定的Hadoop基礎知識的學員,想經過本項目的學習,深刻掌握Hadoop高階運維、管理和調優技巧的學員。
沒有Hadoop基礎的同窗,可先學習以下課程:
《Hadoop大數據零基礎高端培訓課程》 http://www. ibeifeng. com/hadoop.html
二.我該怎麼學,如何才能學好這門課程,給些建議
2.一、時間上的安排建議
本課程共80講,若是您時間上充分,建議以天天2-3講的進度往前學習。
2.二、學習要求
若是您沒有基礎,建議仍是中規中矩的按照課程進度一點一點仔細觀看學習,並必定要把看完的視頻中的代碼本身手敲一遍,以加深理解和記憶
若是您有基礎,可沒必要按步就搬進行,能夠拿你感興趣的部分去學習,但必定要注意實踐,並學會觸類旁通
2.三、講師建議
1.最好看完視頻以後,拋開視頻,獨立本身去把上課中的示例寫一遍,看本身是否理解,若是不正確,能夠回過頭看再看下視頻,若是反覆,達到真正理解和
熟練掌握 的目的。
2.對於課程實戰部分,必定要本身親自動手作一遍,不要知足聽完就OK了
3. 建議通常聽視頻,通常拿個紙和筆,作一些記錄和筆記,這是一種很是好的學習習慣。
4. 必定不要過於依賴視頻,要學會看文檔日誌和使用百度,學會思考,學會觸類旁通
5. 最後祝您學有所成
課程是屬於某個特定的專業技術,掌握該技術後,你能夠從事如下職位的相關工做
1.Hadoop運維工程師
2.Hadoop大數據架構師