Spark-SQL編程總結

概覽 Spark SQL用於處理結構化數據,與Spark RDD API不一樣,它提供更多關於數據結構信息和計算任務運行信息的接口,Spark SQL內部使用這些額外的信息完成特殊優化。能夠經過SQL、DataFrames API、Datasets API與Spark SQL進行交互,不管使用何種方式,SparkSQL使用統一的執行引擎記性處理。用戶能夠根據本身喜愛,在不一樣API中選擇合適的進行
相關文章
相關標籤/搜索