Mapreduce做業,在mapreduce中有不少map,每一個map讀一片數據,進而並行的完成數據的拷貝。java
準備安裝文件mysql
解壓sql
重命名shell
配置環境變量數據庫
export SQOOP_HOME=/opt/sqoop export PATH=$PATH:$SQOOP_HOME/bin
修改配置文件vim
mv sqoop-env-template.sh sqoop-env.sh
==vim sqoop-env.sh==app
export HADOOP_COMMON_HOME=/opt/hadoop export HBASE_HOME=/opt/hbase export HIVE_HOME=/opt/hive export ZOOCFGDIR=/opt/zookeeper/conf
由於SQOOP要鏈接rdbms,因此須要將該數據的驅動jar包添加進sqoop的classpath中,因此將mysql的jar包上傳至$SQOOP_HOME/lib工具
sqoop-list-databases --connect jdbc:mysql://uplooking05:3306/ --username root --password rootoop
sqoop-list-tables --connect jdbc:mysql://uplooking05:3306/up1 --username root --password rooturl
sqoop-import --connect jdbc:mysql://uplooking05/up2 --username root --password root --table user
--where:根據條件進行導入
--query:導入mysql查詢的結果到hdfs
sqoop-import --connect jdbc:mysql://uplooking05/up2 --username root --password root --table user --hbase-row-key id --hbase-table ns1:t2 --column-family f1
--hbase-row-key: 能夠不指定,不指定默認hbase中的row-lkey就是mysql中的主鍵
==注意:導入數據到hbase數據庫以前須要在hbase中先建立表和列族==
sqoop-export --connect jdbc:mysql://uplooking05:3306/up2 --username root --password root --table user --export-dir /sqoop/user2
==注意:導出以前首先須要在mysql中建立表==
不可行