如何用Spark解決一些經典MapReduce問題?

Spark是一個Apache項目,它被標榜爲「快如閃電的集羣計算」。它擁有一個繁榮的開源社區,並且是目前最活躍的Apache項目。Spark提供了一個更快、更通用的數據處理平臺。和Hadoop相比,Spark可以讓你的程序在內存中運行時速度提升100倍,或者在磁盤上運行時速度提升10倍。同時spark也讓傳統的map reduce job開發變得更加簡單快捷。本文將簡單介紹幾個經典hadoop的m
相關文章
相關標籤/搜索