Spark源碼解析之SparkSql

首先咱們回顧一下使用SparkSql的通常步驟: 1. 從數據源或者RDD讀取數據,構造出一個DataFrame 2. 使用DataFrame的registerTempTable方法根據剛纔讀取的數據建立一個臨時表 3. 調用sqlContext的sql方法執行sql語句java 那麼在這裏咱們就從sql語句的調用開始:web def sql(sqlText: String): DataFrame
相關文章
相關標籤/搜索