如何作Spark 版本兼容

咱們知道Spark2.0 ,Spark 1.6還有Spark 1.5 三者之間版本是不兼容的,尤爲是一些內部API變化比較大。若是你的系統使用了很多底層的API,那麼這篇文章或許對你有幫助。咱們介紹的兼容相關一些技巧,主要包括動態編譯以及反射等方式,也用到了Scala的一些語言特性。sql 案例 在Spark 1.6 時,大部分機器學習相關的類使用的向量仍是express org.apache.s
相關文章
相關標籤/搜索