hadoop+spark集羣的版本配置關係

剛開始部署分佈式計算的時候,常常會遇到這樣的問題;如何搭配不同軟件的版本呢?我們來梳理一下他們的關係。 1首先hadoop的底層開發是基於java開發的,自然是依賴於java的版本。 2另外spark的底層開發是基於scala開發的,而scala是一種範式語言,兩者的共同點是都需要在JVM上運行。範式語言的好處是可以支持java,或者python。不會受到開發語言的過分限制。 3目前hadoop有
相關文章
相關標籤/搜索