解決升級Spark2.0以後,DataFrame map操做報錯

當咱們在使用spark1.6的時候,當咱們建立SQLContext讀取一個文件以後,返回DataFrame類型的變量能夠直接.map操做,不會報錯。可是升級以後會包一個錯誤,以下:ide   報錯:No implicits found for parameter evidence$6: Encoder[Unit]spa        主要的錯誤緣由爲: 3d   ******error: Unab
相關文章
相關標籤/搜索