sparksql udf自定義函數中參數過多問題的解決

在進行spark sql數據庫操做中,經常須要一些spark系統自己不支持的函數,如獲取某一列值中的字符串。sql 如要獲取 「aaaakkkkk」中的第4-第8個字符。數據庫 針對這種需求,只有設置UDF來實現了。函數 如spa val fun:((String,Int,Int) => String) = (args:String, k1:Int, k2:Int) => { args.subst
相關文章
相關標籤/搜索