Hadoop經常使用操做命令

1. 按照行數讀取hadoop文件方法node

hadoop fs -text  /dahua/original_data/shiwu.csv  | head -n 3app

 

2. tail默認查看最後一千字節。例如要查閱README.txt最後一千個字節,能夠執行以下命令。oop

hadoop fs -tail README.txt 日誌

 

3. 顯示文件結尾的5行索引

hadoop fs -cat  /luojp/README.md | tail -n 5   ip

 

HDFS有一個默認工做目錄/usr/$USER,其中$USER是你的登陸用戶名,做者的用戶名是root。該目錄不能自動建立,須要執行mkdir命令建立。hadoop

hadoop fs -mkdir  /usr/rootget

使用Hadoop的命令put將本地文件README.txt送到HDFS。文件上傳

hadoop fs -put README.txt  .it

注意上面這個命令最後一個參數是句點(.),這意味着把本地文件放入到默認的工做目錄,該命令等價於:

hadoop fs -put README.txt     /user/root

使用Hadoop的ls命令,即

hadoop fs -ls

 

獲取文件包含兩層意思,一是HDFS從本地文件中獲取文件,即前面介紹的添加文件;二是本地文件從HDFS中獲取文件,能夠使用Hadoop的get命令。例如若本地文件沒有README.txt文件,須要從HDFS中取回,能夠執行以下命令。

hadoop fs -get  README.txt  .

或者

hadoop fs -get README.txt  /usr/root/README.txt

4 刪除文件

Hadoop刪除文件命令爲rm。例如要刪除從本地文件上傳的README.txt,能夠執行以下命令。

hadoop  fs -rm  README.txt

5 檢索文件

檢索文件即查閱HDFS中的文件內容,能夠使用hadoop中的cat命令。例如要查閱README.txt的內容,能夠執行以下命令。

hadoop fs -cat README.txt

 

查閱幫助

hadoop  fs -help  [command]

如: hadoop  fs -help ls

 

6 隨機返回指定行數的樣本數據
hadoop fs -cat /test/gonganbu/scene_analysis_suggestion/* | shuf -n 5

 

7 返回前幾行的樣本數據
hadoop fs -cat /test/gonganbu/scene_analysis_suggestion/* | head -100

 

8 返回最後幾行的樣本數據
hadoop fs -cat /test/gonganbu/scene_analysis_suggestion/* | tail -5

9 查看文本行數
hadoop fs -cat hdfs://172.16.0.226:8020/test/sys_dict/sysdict_case_type.csv |wc -l

 

10 查看文件大小(單位byte)
hadoop fs -du hdfs://172.16.0.226:8020/test/sys_dict/*

hadoop fs -count hdfs://172.16.0.226:8020/test/sys_dict/*

 

11 某個文件的blocks信息
hadoop fsck /user/xx -files -blocks -locations

12 改變一個文件或者目錄的副本因子
hadoop fs -setrep -R 3 /user/xx

13 查看app的log
yarn logs -applicationId application_1452250357031_0175

14 set datanode 日誌級別
hadoop daemonlog -setlevel namenodeip:50070 datanode DEBUG

或者 在hadoop-env.sh中添加
export HADOOP_ROOT_LOGGER=DEBUG,RFA

15 查看sequence文件
hadoop dfs -text sequenceFile

16 查看壓縮文件
lzo文件(先按照lzop命令) hadoop fs -cat /user/2017-03-06/part-r-00255.lzo | lzop -dc | head -1
gz壓縮 hadoop fs -cat /tmp/temp.txt.gz | gzip -d​ 或者 hadoop fs -cat /tmp/temp.txt.gz | zcat​

17 lzo創建索引(方便切分多個split,會在當前hdfs目錄下建立一個.index文件)hadoop jar lib/hadoop-lzo-0.4.15.jar com.hadoop.compression.lzo.DistributedLzoIndexer /user/news_74_8000_201705091820.lzo

相關文章
相關標籤/搜索