spark+scala+spring整合提升搬磚效率

0.背景 爲何會想到把這三個整合在一塊兒? 固然是工做中遇到不舒服的地方。java 最近數據的需求特別多,有時候本身定位問題也常常要跑數據,一般就是spark+scala的常規畫風。雖然是提同一個jar包,但執行的每一個包的路徑都不同,這就致使我要不斷的去改腳本,很不舒服。提交spark job的畫風一般是這樣子的:git spark-submit --cluster hadoop-spark2.
相關文章
相關標籤/搜索