9.3 scala和Java做Spark操作

注意導入spark-assembly-1.6.0-hadoop2.4.0.jar scala: package com.scala import org.apache.spark.SparkContext import org.apache.spark.SparkConf object Test { def main(args: Array[String]): Unit = { val conf
相關文章
相關標籤/搜索