spark sql集成hive步驟

SPARK ON HIVE:讓spark sql通過sql的方式去讀取hive當中的數據 HIVE ON SPARK:讓hive的計算引擎由MapReduce改爲SPARK 1、  先按官網的參考代碼,構建 val conf = new SparkConf().setMaster("local[*]").setAppName("hotCount") val sc = new SparkContex
相關文章
相關標籤/搜索