Spark學習之RDD編程(一)

RDD是Spark的核心概念,它是一個可讀的、可分區的分佈式數據集,這個數據集的所有或部分能夠緩存在內存中,可在屢次計算間重用。Spark用Scala語言實現了RDD的API,咱們能夠經過調用API實現對RDD的各類操做,從而實現各類複雜的應用。shell RDD建立 Spark採用textFile()方法從文件系統中加載數據建立RDD,該方法把文件的URI做爲參數,這個URI能夠是本地文件系統的
相關文章
相關標籤/搜索