關於SparkContext

1. SparkContext是spark功能的入口,代表與spark集羣的連接,能夠用來在集羣上創建RDD、累加器、廣播變量 2. 每個JVM裏只能存在一個處於激活狀態的SparkContext,在創建新的SparkContext之前必須調用stop()來關閉之前的SparkContext 3. SparkConf包含了Spark集羣配置的各種參數,對於一般簡單應用,只需要傳遞下面兩個參數: 集
相關文章
相關標籤/搜索