學習hadoop須要什麼基礎

學習hadoop須要什麼基礎oop

「學習hadoop須要什麼基礎」這已經不是一個新鮮的話題了,隨便上網搜索一下就能找出成百上千篇的文章在講學習hadoop須要掌握的基礎。再直接的一點的問題就是——學Hadoop難嗎?用一句特別讓人無語的話回答就是:難不會,會不難!學習

趁着學校放假的時間,寫了一些hadoop學習分享的文章。剛開始寫的幾篇稍微有點亂,其中有一篇就是在說學習hadoop須要什麼樣基礎的。所謂的難不會,會不難,必然也是創建你如今的基礎之上的。假定你連基礎的計算機基礎都沒有,那可能真的就是「難不會」了。若是你是有一個良好的計算機基礎的,好比,虛擬機的配置你會、擁有JAVA基礎和Linux操做基礎,那學習hadoop對你來可能就是「會不難」哦!測試

當你看了不少介紹「學習hadoop須要什麼基礎」的文章後,你必定會得出一個結論,那就是學習hadoop所必須的三個基礎技能:JAVA基礎、Linux基礎、虛擬機基礎(上面已經說過了)。全部的文章在說完這個三個基礎以後,好像在告訴咱們全部人,你只要有這個三個基礎就必定可以學好hadoop,今後走上人生巔峯······其實,也不盡然,只有當你真正接觸了hadoop,你纔會發現真正的問題所在。spa

接觸過hadoop的人都知道,單獨搭建hadoo裏每一個組建都須要運行環境、修改配置文件、測試等過程。若是僅僅是安裝一下運行環境就好了,那你就大錯特錯了,幾乎每一個組件都是坑,這些坑幾乎是不可能讓初學者有一個愉快的學習過程的。Hadoop雖然起源於國外,但國內發行版本也蠻多,可是都沒有去解決環境搭建的問題。若是說他們沒有關注到運行環境搭建繁瑣這樣的問題話,我確定是不相信的。真的不知道是他們如今的技術解決不了這個問題,仍是不想去花費時間去解決?調試

今年3月初的時候,一個作程序開發的朋友給了一個國產發行版DKHadoop,是大快搜索開源的發行版hadoop。這款hadoop版本終於解決了運行環境搭建繁瑣的問題,它將開源社區裏多種經常使用的組件包括:HDFS,Hbase,Storm,Spark,Flume,Kafka,Mahout,ES等都集成到一個平臺裏,只需簡單的一鍵安裝就能完成,須要調用的時候直接調用便可,終於讓我以爲不用在像之前拿樣再去安裝調試等等。orm

因此,我以爲學習hadoop須要的不單單是JAVA、虛擬機、Linux這三個方面的基礎,選擇的hadoop版本也是很重要。咱們學習hadoop的重點是想要去開發一些東西,而不是爲了學習運行環境的安裝,這樣會讓人以爲有點本末倒置!blog

正在學習hadoop或者準備學習hadoop的朋友,我的仍是比較推薦DKHadoop這套發行版,畢竟對新手而言算是很友好的了。我在用的是標準本三節點dkhadoop版本(放心,是免費的),雖然是免費的,但權限都是開放的。因此,對於新手或者我的研究而言已經夠用了。須要dkhadoop安裝包的,能夠留言給我,能夠打包發你!hadoop

相關文章
相關標籤/搜索