1.導入數據(將mysql(rdbms)的表的數據導入到hdfs)mysql
1.1.所有導入(注意空格)sql
sqoop import \ --connect jdbc:mysql://192.168.159.110:3306/stu \ (stu數據庫名稱 寫本身的ip) --username root \ --password 123456 \ --table students \ --target-dir /user/test3 \ (導入到hdfs位置,會自動建立,若是存在,會自動刪除在建立) --delete-target-dir \ --m 1 \ --fields-terminated-by "\t"; (分割符)
1.2.查詢導入數據庫
sqoop import \ --connect jdbc:mysql://192.168.159.110:3306/stu \ --username root \ --password 123456 \ --target-dir /user/test4 \ --delete-target-dir \ --m 1 \ --fields-terminated-by "\t" \ --query 'select id,name from students where id <=1 and $CONDITIONS';
注意:sql語句的末尾必須加上$CONDITIONSoop
1.3.導入指定的列spa
sqoop import \ --connect jdbc:mysql://hadoop01:3306/stu \ (既能夠寫名稱也能夠寫ip) --username root \ --password 123456 \ --target-dir /user/test5 \ --delete-target-dir \ --m 1 \ --fields-terminated-by "\t" \ --columns id \ --table students;
提示::columns中若是涉及到多列時,用逗號分割,分割時不要添加空格code
1.4.使用sqoop關鍵字篩選查詢導入數據blog
sqoop import \ --connect jdbc:mysql://hadoop01:3306/stu \ --username root \ --password 123456 \ --target-dir /user/test6 \ --delete-target-dir \ --m 1 \ --fields-terminated-by "\t" \ -table students \ --where "id=2";