大數據清洗階段3

如今就是基本完成了,下一階段將繼續學習hive、 MapReducemysql

 進入mysqlsql

 

 

mysql --local-infile=1 -u root -poop

 

 

 

 

 

 

 

 

 將HIVE中的表數據導出到臨時文件中學習

  insert overwrite local directory '/usr/local/hadoop/tmp/out' row format delimited fields terminated by ' ' select * from t_2;3d

 

 

 經過命令將數據導入到mysqlorm

load data local infile '/usr/local/hadoop/tmp/out/000000_0' into table t_2 fields terminated by ' ';blog

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 可視化展現hadoop

 

 

 

 

 

 

 

相關文章
相關標籤/搜索