Spark應用依賴jar包的添加解決方案

在Spark應用中,咱們發現,在${SPARK_HOME}\lib文件夾中添加jar包時並不起做用。那麼,要如何使得咱們編寫的Sparky應用依賴的jar有效呢?有以下四種方案:java 1.使用參數–jarsmysql 添加本地的第三方jar文件(運行spark-submit腳本的機器上),能夠給定多個jar文件,中間用逗號隔開linux bin/spark-sql --jars /opt/mo
相關文章
相關標籤/搜索