split 函數在pyspark.sql 與hive中不同之處

pyspark.sql split 特殊字符 * sql = """ select split(flag,"\\*") as flag from tableA """ s = sqlContext.sql(sql).first() hive 中執行上述sql 中正常運行 但是在pyspark 中失敗 錯
相關文章
相關標籤/搜索