hadoop-3.2.0------>入門五 僞分佈式 WordCount實例

     一、點擊頁面,查看文件夾

                 二、在根目錄下建立文件夾(命令:bin/hdfs dfs -mkdir -p /user/root/input),建立完成以後咱們能夠看到頁面上顯示出咱們全部的文件夾。

                                bin/hdfs dfs:固定寫法linux

                                -mkdir:建立文件夾服務器

                                 -p:多級目錄oop

                                /user/root/input:目錄地址spa

                    

                 三、查看咱們所建立的文件夾,在hdfs中,(命令:bin/hdfs dfs -ls /)

                            

                  四、將文件上傳至hdfs咱們所建立的文件夾中

                                命令:bin/hdfs dfs -put wcinput/wc.input     /user/root/input
                                bin/hdfs dfs:固定寫法3d

                                 -put:上傳blog

                                wcinput/wc.input:文件路徑及文件名hadoop

                                /user/root/input:上傳至hdfs服務器中的文件夾路徑ci

                  五、在頁面中查看上傳的文件

                    

                  六、輸入命令 bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.0.jar wordcount  /user/root/input  /user/root/output

                                bin/hadoop jar:執行一個jar文件input

                                share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.0.jar :文件所在的目錄    examples由於加s了確定是多個案例文件上傳

                                wordcount :由於examples是多個案例咱們這裏執行的是wordcount 案例

                                /user/root/input:輸入文件夾

                                /user/root/output:輸出文件夾,名字能夠隨意取,通常會以執行的文件名字+output命名

                               注意:這裏的output文件夾不能存在,若是存在將會報錯,在執行命令時會自動建立wcoutput 文件夾

                    

                  七、去頁面上查看有沒有執行成功,從下圖能夠看到咱們的output文件夾已經出現。

                  八、點進去能夠看到有兩個文件分別是_SUCCESS和part-r-00000。

                  九、能夠點擊part-r-00000文件名字進行下載,下載到本地,查看裏面的內容。

                       

                 十、一樣咱們也能夠在linux系統中進行查看,命令(bin/hdfs dfs -cat /user/root/output/p*)

                                

                        

相關文章
相關標籤/搜索