Spark編程基礎 --pyspark

之前記錄的一些筆記,有點懶直接copy了python spark:     rdd:         resilient         distributed         dataset     spark由一個sparkContext發啓,由各個work節點的執行器執行的並行計算task.     核心是RDD     將數據轉換成RDD         1. parallelize, 序
相關文章
相關標籤/搜索