因爲小編在本學期有一門課程須要學習hadoop,須要在ubuntu的linux系統下搭建Hadoop環境,在這個過程當中遇到一些問題,寫下這篇博客來記錄這個過程,並把分享給你們。java
若是安裝 Ubuntu 的時候不是用的 「hadoop」 用戶,那麼須要增長一個名爲hadoop 的用戶,首先按打開終端窗口,輸入以下命令建立新用戶 :node
sudo useradd –m hadoop –s /bin/bash
上面這條命令建立了能夠登錄的 hadoop 用戶,並使用 /bin/bash 做爲 shell 接着使用以下命令設置密碼,可簡單設置爲 hadoop,按提示輸入兩次密碼:linux
sudo passwd hadoop
可爲 hadoop 用戶增長管理員權限,方便部署,避免一些對新手來講比較棘 手的權限問題:c++
sudo adduser hadoop sudo
SSH 爲 Secure Shell 的縮寫,是創建在應用層和傳輸層基礎上的安全協議。 SSH 是目前較可靠、專爲遠程登陸會話和其餘網絡服務提供安全性的協議。 利用 SSH 協議能夠有效防止遠程管理過程當中的信息泄露問題。SSH最初是 UNIX系統上的一個程序,後來又迅速擴展到其餘操做平臺。 SSH是由客 戶端和服務端的軟件組成,服務端是一個守護進程(daemon),它在後臺運 行並響應來自客戶端的鏈接請求,客戶端包含ssh程序以及像scp(遠程拷 貝)、slogin(遠程登錄)、sftp(安全文件傳輸)等其餘的應用程序.shell
Hadoop名稱節點(NameNode)須要啓動集羣中全部機器的Hadoop守護進程,這個過 程須要經過SSH登陸來實現。Hadoop並無提供SSH輸入密碼登陸的形式,所以,爲 了可以順利登陸每臺機器,須要將全部機器配置爲名稱節點能夠無密碼登陸它們。編程
安裝openssh-server( 一般Linux系統會默認安裝openssh的客戶端軟件openssh-client),因此須要本身安裝一下服務端。ubuntu
sudo apt-get install openssh-server
輸入 cd .ssh目錄下,若是沒有.ssh文件 輸入 ssh localhost生成。windows
cd ~/.ssh/
生成祕鑰瀏覽器
ssh-keygen -t rsa
將Master中生成的密鑰加入受權(authorized_keys)安全
cat id_rsa.pub # 查看生成的公鑰
cat id_rsa.pub >> authorized_keys # 加入受權 chmod 600 authorized_keys # 修改文件權限,若是不修改文件權限,那麼其它用戶就能查看該受權
完成後,直接鍵入「ssh localhost」,能無密碼登陸便可,
鍵入「exit」退出,到此SSH無密碼登陸配置就成功了。
由於老師給了咱們的java的jdk安裝包,想着不用去ubuntu從新下載,因此就想到了利用scp命令傳輸Mac的文件到ubuntu,利用這個命令前提是Ubuntu安裝了SSH服務器,在以前咱們已經有了這步操做。
利用ifconfig查看ubuntu服務器的局域網IP地址
如下是利用scp命令傳輸文件的基本格式:
1. 本地文件傳輸到服務器
從本地將文件傳輸到服務器 | 從本地將文件夾傳輸到服務器 |
---|---|
scp[本地文件的路徑] [服務器用戶名]@[服務器地址]:[服務器上存放文件的路徑] | scp -r[本地文件的路徑] [服務器用戶名]@[服務器地址]:[服務器上存放文件的路徑] |
scp /Users/mac/Desktop/test.txt root@192.168.1.1:/root | scp -r /Users/mac/Desktop/test root@192.168.1.1:/root |
2. 服務器文件傳輸到本地
將服務器上的文件傳輸到本地 | 將服務器上的文件夾傳輸到本地 |
---|---|
scp [服務器用戶名]@[服務器地址]:[服務器上存放文件的路徑] [本地文件的路徑] | scp -r [服務器用戶名]@[服務器地址]:[服務器上存放文件的路徑] [本地文件的路徑] |
scp root@192.168.1.1:/root/default/test.txt /Users/mac/Desktop | scp -r root@192.168.1.1:/root/default/test /Users/mac/Desktop |
在選擇Linux服務器端的儲存文件地址時,因爲權限緣由,默認的是在/tmp有權限,能夠先把文件放到tmp文件目錄下,而後在進行mv 或者scp到其餘目錄,便可。
scp /Users/xjh/Desktop/jdk-8u221-linux-x64.tar.gz hadoop@172.16.186.128:/tmp
傳輸速度仍是蠻快的,以下圖:
在Ubuntu將jdk移動到咱們新建的java目錄下(沒建的新建一個就是),到此傳輸文件成功,能夠開始配置Java環境了。
sudo mv /tmp/jdk-8u221-linux-x64.tar.gz usr/java
在java目錄中,使用sudo tar命令解壓jdk文件;
解壓成功後,java目錄中會有對應的目錄文件存在
使用命令「sudo gedit ~/.bashrc」打開配置文件,在末尾添加如下幾行文字,注意本身的jdk版本號。
#set java env export JAVA_HOME=/usr/lib/jdk/jdk1.8.0_221 export JRE_HOME=${JAVA_HOME}/jre export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib export PATH=${JAVA_HOME}/bin:$PATH
使用命令「source ~/.bashrc」使環境變量生效。
source ~/.bashrc
配置軟鏈接,軟鏈接至關於windows系統中的快捷鍵,部分軟件可能會從/usr/bin目錄下查找Java,所以添加該軟鏈接防止其餘軟件查找不到的狀況。
sudo update-alternatives --install /usr/bin/java java /usr/java/jdk1.8.0_221/bin/java 300
sudo update-alternatives --install /usr/bin/javac javac /usr/java/jdk1.8.0_221/bin/javac 300
將咱們下載的Hadoop解壓到 /usr/local/ 中
sudo tar zxvf tmp/hadoop-3.2.1.tar.gz -C /usr/local
利用cd /usr/local/ 命令切換操做空間,將文件夾名改成hadoop
sudo mv ./hadoop-3.2.1/ ./hadoop
修改文件權限
sudo chown -R hadoop:hadoop ./hadoop
Hadoop 解壓後,在Hadoop目錄下的etc/hadoop/hadoop-env.sh文件中添加以下的 Java環境信息。
export JAVA_HOME=/usr/java/jdk1.8.0_221而後,保存hadoop-env.sh文件,即完成單機模式的Hadoop基本安裝。測試Hadoop是否安裝成功,如出現以下圖所示的版本信息,便可。
默認狀況下,單機模式的Hadoop以Java進程的方式運行,可依次運行以下命令進行進一步測試。
sudo mkdir input sudo cp etc/hadoop/*.xml input
執行下列命令,運行MapReduce程序,完成測試計算。
bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.1.jar grep input output 'dfs[a-z.]+'
執行下列命令,查看計算結果。
cat output/*
Hadoop目錄下,會有input和output兩個新建的文件,output中有上述程序 的運算結果,到此Hadoop單機安裝配置成功。
- Hadoop能夠在單節點上以僞分佈式的方式運行,Hadoop進程以分 離的 Java 進程來運行,節點既做爲 NameNode 也做爲 DataNode, 同時,讀取的是 HDFS 中的文件
- Hadoop的配置文件位於/usr/local/hadoop/etc/hadoop/中,僞分佈式 須要修改2個配置文件 core-site.xml 和 hdfs-site.xml
- Hadoop的配置文件是xml格式,每一個配置以聲明property的name 和 value 的方式來實現
hadoop目錄認識
修改配置文件以前,先看一下hadoop下的目錄:
<configuration> <property> <name>hadoop.tmp.dir</name> <value>file:/usr/local/hadoop/tmp</value> <description>Abase for other temporary directories.</description> </property> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration>
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/usr/local/hadoop/tmp/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/usr/local/hadoop/tmp/dfs/data</value> </property> </configuration>
文件名稱 | 格式 | 描述 | |
---|---|---|---|
hadoop-env.sh | Bash腳本 | 記錄配置Hadoop運行所需的環境變量,以運行 Hadoop | |
core-site.xml | Hadoop配置XML | Hadoop core的配置項,例如HDFS和MapReduce 經常使用的I/O設置等 | |
hdfs-site.xml | Hadoop配置XML | Hadoop的守護進程的配置項,包括NameNode、 SecondaryNameNode和DataNode等 | |
mapred-site.xml | Hadoop配置XML | MapReduce守護進程的配置項,包括JobTracker 和TaskTracker | |
masters | 純文本 | 運行SecondaryNameNode的機器列表(每行一 個) | |
slaves | 純文本 | 運行DataNode和TaskTracker的機器列表(每行 一個) | |
hadoop- metrics.properties | Java屬性 | 控制metrics在Hadoop上如何發佈的屬性 |
至此,配置完畢,可是還不能啓動,要對hdfs先進行格式化。相似之前的軟盤,使用前要先格式化,執行命令:
sudo ./bin/hdfs namenode -format
看到日誌信息:即格式化成功。
在咱們name目錄(這個目錄是咱們本身配置的時候指定的)下也會出現映像文件(fsimage),用於將數據持久化 。
輸入如下命令啓動Hadoop:
sbin/start-dfs.sh
安裝jps
sudo apt install openjdk-11-jdk-headless
安裝好以後jps檢查角色若是有多個角色,就啓動成功。
瀏覽器訪問localhost:9870
本次給你們分享的內容就到這裏啦,以爲還不錯的點個贊支持一下小編,你的確定就是小編前進的動力。另外若是想了解更多計算機專業的知識和技巧的,獻上個人我的博客北徯,另外須要各類資料的童鞋,能夠關注個人微信公衆號北徯,免費的PPT模板,各類資料等你來領。