JavaSpark在本地運行

本地運行spark主要用於做測試和debug,在文件中抽取少量數據,用來測試 在hdfs上查找文件,輸出文件需要的參數//System.setProperty("HADOOP_USER_NAME","root"); 在本地運行需要的參數//SparkConf conf = new SparkConf().setAppName("LambdaWordCount2").setMaster("local
相關文章
相關標籤/搜索