原文地址:大數據技術學習路線php
博客地址:http://www.moonxy.comhtml
1、前言html5
大數據(big data),指沒法在必定時間範圍內用常規軟件工具進行捕捉、管理和處理的數據集合,是須要新處理模式才能具備更強的決策力、洞察發現力和流程優化能力的海量、高增加率和多樣化的信息資產。mysql
在維克托·邁爾-舍恩伯格及肯尼斯·庫克耶編寫的《大數據時代》中大數據指不用隨機分析法(抽樣調查)這樣捷徑,而採用全部數據進行分析處理。大數據的 5V 特色(IBM 提出):Volume(大量)、Velocity(高速)、Variety(多樣)、Value(低價值密度)、Veracity(真實性)。程序員
那麼,大數據處理技術怎麼學習呢?算法
2、兩大基礎sql
首先咱們要學習 Python 語言和 Linux 操做系統,這兩個是學習大數據的基礎,學習的順序不分前後。shell
Python:Python 的排名從去年開始就藉助人工智能持續上升,如今它已經成爲了語言排行第一名,你也能夠學習 Java,由於 Hadoop 是用 Java 語言開發的,Sprark 是用基於 JVM 的 Scala 語言開發的,固然他們也提供了其餘語言調用的接口,好比 Python。相對來講,Python 比 Java 好入門,語法功能也沒有 Java 多,容易掌握。從學習難易度來看,做爲一個爲 "優雅" 而生的語言,Python 語法簡捷而清晰,對底層作了很好的封裝,是一種很容易上手的高級語言。在一些習慣於底層程序開發的 "硬核" 程序員眼裏,Python 簡直就是一種 "僞代碼"。數據庫
在大數據和數據科學領域,Python 幾乎是萬能的,任何集羣架構軟件都支持 Python,Python 也有很豐富的數據科學庫,因此 Python 不得不學。網絡
Linux:由於大數據相關軟件都是在Linux上運行的,因此Linux要學習的紮實一些,學好Linux對你快速掌握大數據相關技術會有很大的幫助,能讓你更好的理解hadoop、hive、hbase、spark等大數據軟件的運行環境和網絡環境配置,能少踩不少坑,學會 shell就能看懂腳本這樣能更容易理解和配置大數據集羣。還能讓你對之後新出的大數據技術學習起來更快。
說完基礎了,再說說還須要學習哪些大數據技術,能夠按我寫的順序學下去。
3、大數據技術棧
Hadoop:這是如今流行的大數據處理平臺幾乎已經成爲大數據的代名詞,因此這個是必學的。Hadoop 裏面包括幾個組件 HDFS、MapReduce 和 YARN。HDFS 是存儲數據的地方就像咱們電腦的硬盤同樣文件都存儲在這個上面,MapReduce 是對數據進行處理計算的,它有個特色就是無論多大的數據只要給它時間它就能把數據跑完,可是時間可能不是很快因此它叫數據的批處理。 YARN 是體現 Hadoop 平臺概念的重要組件,有了它大數據生態體系的其它軟件就能在 hadoop 上運行了,這樣就能更好的利用 HDFS 大存儲的優點和節省更多的資源好比咱們就不用再單獨建一個 spark 的集羣了,讓它直接跑在現有的 hadoop yarn 上面就能夠了。其實把 Hadoop 的這些組件學明白你就能作大數據的處理了,只不過你如今還可能對 "大數據" 到底有多大尚未個太清楚的概念,聽個人別糾結這個。等之後你工做了就會有不少場景遇到幾十T/幾百 TB 大規模的數據,到時候你就不會以爲數據大真好,越大越有你頭疼的。固然別怕處理這麼大規模的數據,由於這是你的價值所在,讓那些個搞 JavaEE 的 php 的 html5 的和 DBA 的羨慕去吧。
記住學到這裏能夠做爲你學大數據的一個節點。
Zookeeper:這是個萬金油,安裝 Hadoop 的 HA 的時候就會用到它,之後的 Hbase 也會用到它。它通常用來存放一些相互協做的信息,這些信息比較小通常不會超過 1M,都是使用它的軟件對它有依賴,對於咱們我的來說只須要把它安裝正確,讓它正常的 run 起來就能夠了。
Mysql:咱們學習完大數據的處理了,接下來學習學習小數據的處理工具mysql數據庫,由於一會裝hive的時候要用到,mysql須要掌握到什麼層度那?你能在Linux上把它安裝好,運行起來,會配置簡單的權限,修改root的密碼,建立數據庫。這裏主要的是學習SQL的語法,由於hive的語法和這個很是類似。
Sqoop:這個是用於把 Mysql 裏的數據導入到 Hadoop 裏的。固然你也能夠不用這個,直接把 Mysql 數據表導出成文件再放到 HDFS 上也是同樣的,固然生產環境中使用要注意 Mysql 的壓力。
Hive:這個東西對於會 SQL 語法的來講就是神器,它能讓你處理大數據變的很簡單,不會再費勁的編寫 MapReduce 程序。有的人說 Pig 那? 它和 Pig 差很少掌握一個就能夠了。
Oozie:既然學會 Hive 了,我相信你必定須要這個東西,它能夠幫你管理你的 Hive 或者 MapReduce、Spark 腳本,還能檢查你的程序是否執行正確,出錯了給你發報警並能幫你重試程序,最重要的是還能幫你配置任務的依賴關係。我相信你必定會喜歡上它的,否則你看着那一大堆腳本,和密密麻麻的 crond 是否是有種想屎的感受。
Hbase:這是 Hadoop 生態體系中的 NOSQL 數據庫,他的數據是按照 key 和 value 的形式存儲的而且 key 是惟一的,因此它能用來作數據的排重,它與 MYSQL 相比能存儲的數據量大不少。因此他常被用於大數據處理完成以後的存儲目的地。
Kafka:這是個比較好用的隊列工具,隊列是幹嘛的? 排隊買票你知道不? 數據多了一樣也須要排隊處理,這樣與你協做的其它同窗不會叫起來,你幹嘛給我這麼多的數據(好比好幾百 GB 的文件)我怎麼處理得過來,你別怪他由於他不是搞大數據的,你能夠跟他講我把數據放在隊列裏你使用的時候一個個拿,這樣他就不在抱怨了立刻灰流流的去優化他的程序去了,由於處理不過來就是他的事情。而不是你給的問題。固然咱們也能夠利用這個工具來作線上實時數據的入庫或入 HDFS,這時你能夠與一個叫 Flume 的工具配合使用,它是專門用來提供對數據進行簡單處理,並寫到各類數據接受方(好比 Kafka)的。
Spark:它是用來彌補基於 MapReduce 處理數據速度上的缺點,它的特色是把數據裝載到內存中計算而不是去讀慢的要死進化還特別慢的硬盤。特別適合作迭代運算,因此算法流們特別稀飯它。它是用 scala 編寫的。Java 語言或者 Scala均可以操做它,由於它們都是用JVM 的。
會這些東西你就成爲一個專業的大數據開發工程師了。
後續提升:大數據結合人工智能達到真正的數據科學家,打通了數據科學的任督二脈,在公司是技術專家級別,這時候月薪再次翻倍且成爲公司核心骨幹。
機器學習(Machine Learning,ML):是一門多領域交叉學科,涉及機率論、統計學、逼近論、凸分析、算法複雜度理論等多門學科。它是人工智能的核心,是使計算機具備智能的根本途徑,其應用遍佈人工智能的各個領域,它主要使用概括、綜合而不是演繹。機器學習的算法基本比較固定了,學習起來相對容易。
深度學習(Deep Learning,DL):深度學習的概念源於人工神經網絡的研究,最近幾年發展迅猛。深度學習應用的實例有 AlphaGo、人臉識別、圖像檢測等。是國內外稀缺人才,可是深度學習相對比較難,算法更新也比較快,須要跟隨有經驗的老師和使用專業的書籍去學習。
Hadoop 生態系統:
其對應的分層結構圖:
Spark 生態系統: