Spark學習筆記(一):pySpark RDD編程

from pyspark import SparkContext,SparkConf #spark配置信息 注意實際工程中不會用硬編碼 sc = SparkContext("local", "context") ''' RDD操做有兩個方面: 1.transformations: map filter groupby... 2.actions: reduce count collect..
相關文章
相關標籤/搜索