spark2.2 sql 與 hive1.2.1出現的兼容性bug

    前幾天作項目遇到的一個bug,給你們分享一下。sql 出現bug的句子:unix_timestamp(nvl(b.access_time,'2018-08-27 24:00:00'),'yyyy-MM-dd HH:mm:ss')spa 這個句子在hive下跑徹底沒有問題,可是放到spark sql 裏跑 就會出現數據性錯誤。unix 通過排查後發現是這個句子的問題。spark      將
相關文章
相關標籤/搜索