Spark 處理中文字符亂碼問題

今天使用Spark將處理文本數據並寫入mysql中時出現了中文字符是亂碼的問題。 剛開始,所有的中文字符都是**??**,查了很多的文檔之後,將mysql的默認字符集修改爲utf-8,但是中文仍然是亂碼。 插入mysql時,連非中文字段也收到了影響: 最後的解決方法是: 在提交spark任務時,添加命令行參數: –conf spark.executor.extraJavaOptions="-Dfi
相關文章
相關標籤/搜索