spark RDD算子學習(基本命令)

一、進入spark 導入包對象 from pyspark import SparkContext, SparkConf 初始化對象 conf = SparkConf().setAppName(appName).setMaster(master) sc = SparkContext(conf=conf) 若是使用的是命令行:對象則已經初始化好了python 2 使用命令行 使用4個cpu核心 $ .
相關文章
相關標籤/搜索