如何查看spark與hadoop、kafka、Scala、flume、hive等兼容版本【適用於任何版本】

問題導讀 1.通過什麼途徑,可以查看與spark兼容的組件版本? 2.如何獲取pom文件? 3.pom文件中包含了哪些信息? 4.spark編譯通過什麼參數可以指定hadoop版本? 當我們安裝spark的時候,很多時候都會遇到這個問題,如何找到對應spark的各個組件的版本,找到比較標準的版本兼容信息。答案在spark源碼中的pom文件。首先我們從官網下載源碼。進入官網 [Bash shell]
相關文章
相關標籤/搜索