PySpark算子處理空間數據全解析(7): 構造空間數據的RDD(1)

Spark默認讀取的是文本類型的文件,但是作爲GISer,我們打交道的基本上都不是文本文件,無論是通用的Shapefile還是地理數據庫,或者是柵格文件,都是以二進制爲主的文件,那麼在Spark裏面怎麼用呢?   上一篇說過,可以通過對象序列化的方式來實現,比如先讀成序列化對象,然後轉換成RDD,比如下面這篇地類圖斑: 存儲爲Shapefile,如何變成RDD呢,通過對象序列化的方式來實現,代碼如
相關文章
相關標籤/搜索