利用sparkcore進行ETL並輸出爲orc,parquet文件

前置條件:開啓hivemetastore服務。能與hive進行交互java [hadoop@hadoop-01 data]$ spark-shell --driver-class-path /home/hadoop/app/hive-1.1.0-cdh5.7.0/lib/mysql-connector-java.jar scala> import org.apache.spark.sql.hiv
相關文章
相關標籤/搜索