spark sql 之join等函數用法

環境說明:首先搭建好spark環境,而後使用命令pyspark進入python環境編寫 若是以前使用過sql語句,那麼spark sql學起來會很快。spark sql能夠將rdd轉換爲dataframe來進行使用,也能夠將dataframe註冊爲表,使用sql語言來處理數據,使用起來很方便。 參考連接: http://spark.apache.org/docs/2.1.0/api/python/
相關文章
相關標籤/搜索