Spark SQL 讀取hive分區表出現分區字段爲null的狀況

今天在使用Spark SQL 讀取hive分區表數據的時候,出現了下面的錯誤:python 因爲這個表是數倉維護提供給我使用的,我並非很清楚表中數據的狀況,因而我取查了一下這個表,發現分區字段pk_year,pk_month,pk_day這幾個字段確實都存在爲默認的狀況:大數據 在hive裏面表能夠建立成分區表,可是當分區字段的值是''" 或者 null時 hive會自動將分區命名爲默認分區名稱。
相關文章
相關標籤/搜索