Spark實戰(一):spark讀取本地文件輸出到Elasticsearch

對於spark的典型應用場景爲批處理,通常由基本數據源(文件系統如:hdfs)或者高級數據源(flume、kafka)做爲spark的數據接入端。輸出同樣能夠是文件系統或數據庫等等。本文介紹一個用java寫的demo程序,功能是從本地接收數據,通過spark處理以後輸出到Elasticsearch。java 先上代碼: mavennode <dependency> <groupId>org.ap
相關文章
相關標籤/搜索