如何系統的學習大數據框架 hadoop 和spark?

hadoop和Spark是兩種不一樣的大數據生態系統,Hadoop框架比較側重離線大批量計算,而spark框架則側重於內存和實時計算。python 在這些基礎上,衍生出了一些經常使用的附屬組件,好比Hadoop生態下的HBASE、hive、HDFS等,HDFS可用於數據存儲,MR可用於分佈式計算框架。一樣,在spark的基礎上也衍生出了不少組件,好比spark streaming、spark SQ
相關文章
相關標籤/搜索