1.拷貝文件數據庫
若是數據文件剛好是用戶須要的格式,那麼只須要拷貝文件或文件夾就能夠。 hadoop fs –cp source_path target_pathoop
2.導出到本地文件系統orm
--不能使用insert into local directory來導出數據,會報錯 --只能使用insert overwrite local directory來導出數據hadoop
--hive0.11版本以前,只能使用默認分隔符^A(ascii碼是\00001) insert overwrite local directory '/home/sopdm/wrk' select id,name,tel,age from sopdm.wyp;ci
--hive0.11版本以後,能夠指定分隔符 insert overwrite local directory '/home/sopdm/wrk' row format delimited fields terminated by ',' select id,name,tel,age from sopdm.wyp;get
--導出數據到多個輸出文件夾 from employees se insert overwrite local directory ‘/tmp/or_employees’ select * se where se.cty=’US’ and se.st=’OR’ insert overwrite local directory ‘/tmp/ca_employees’ select * se where se.cty=’US’ and se.st=’CA’it
3.導出到HDFSio
--比導出文件到本地文件系統少了一個local insert overwritedirectory '/home/sopdm/wrk' select id,name,tel,age from sopdm.wyp;table
--hive0.11版本以後,能夠指定分隔符 insert overwritedirectory '/home/sopdm/wrk' row format delimited fields terminated by ',' select id,name,tel,age from sopdm.wyp;form
4.導出到hive的另外一張表
insert into table sopdm.wyp2 partition(age='25') select id,name,tel,age from sopdm.wyp;
5.使用hive的-e和-f參數命令導出數據
--使用hive的-e參數 hive –e 「select * from wyp」 >> /local/wyp.txt
--使用hive的-f參數, wyp.hql中爲hql語句 hive –f wyp.hql >> /local/wyp2.txt
6.導出到關係型數據庫 放在sqoop中講。