spark編程指南

spark編程指南 概述 每個spark應用程序包含一個驅動程序,驅動程序用來運行用戶的main函數並在集羣上執行若干並行操做spark最主要的抽象叫作離散分佈式數據集RDD。它是跨集羣節點分區的數據集,而且能夠被並行操做。RDD能夠由hadoop文件,或者在驅動程序中的scala集合建立或者由以前的RDD執行transformations操做轉化獲得。用戶可能須要spark RDD 被持久化到內
相關文章
相關標籤/搜索