Spark:寫數據到PipelineDB建表問題

Spark寫數據到PipelineDB遇到問題: 由於PipelineDB特殊的建表語句,而Spark JDBC在寫數據之前會自動建一張普通的表結構,會出現問題 解決: 自己在寫入數據之前建好PipelineDB的表,同時不讓Spark自動建表 不讓Spark自動建表,這裏注掉了一行spark代碼,重新編譯打包了jar包,替換了環境jar包,修改代碼位置如下: 注掉了:statement.exec
相關文章
相關標籤/搜索