kerberos相關:html
kadmin.local //以超管身份進入kadmin kadmin //進入kadmin模式,需輸入密碼 kdb5_util create -r JENKIN.COM -s //建立數據庫 service krb5kdc start //啓動kdc服務 service kadmin start //啓動kadmin服務 service kprop start //啓動kprop服務 kdb5_util dump /var/kerberos/krb5kdc/slave_data //生成dump文件 kprop -f /var/kerberos/krb5kdc/slave_data master2.com //將master數據庫同步是slave kadmin模式下: addprinc -randkey root/master1@JENKIN.COM //生成隨機key的principal addprinc admin/admin //生成指定key的principal listprincs //查看principal change_password -pw xxxx admin/admin //修改admin/admin的密碼 delete_principal admin/admin //刪除principal kinit admin/admin //驗證principal是否可用 xst -norandkey -k /var/kerberos/krb5kdc/keytab/root.keytab root/master1@JENKIN.COM host/master1@JENKIN.COM //爲principal生成keytab,可同時添加多個 ktadd -k /etc/krb5.keytab host/master1@JENKIN.COM //ktadd也可生成keytab kinit -k -t /var/kerberos/krb5kdc/keytab/root.keytab root/master1@JENKIN.COM //測試keytab是否可用 klist -e -k -t /var/kerberos/krb5kdc/keytab/root.keytab //查看keytab
hadoop相關:node
./bin/hdfs zkfc -formatZK //格式化zkfc ./bin/hdfs namenode -format ns //格式化 namenode ./sbin/start-dfs.sh //啓動dfs, namenode,journalnode,datanode,zkfc都會啓動 ./sbin/start-yarn.sh //啓動yarn,nodemanager, resourcemanager都會啓動 ./sbin/hadoop-daemon.sh start journalnode //啓動journalnode, 也可單獨啓動 namenode, datanode ./sbin/yarn-daemon.sh start resourcemanager //啓動resourcemanager,也可單獨啓動nodemanager ./sbin/start-secure-dns.sh //單獨啓動datanode
./sbin/yarn-daemon.sh start nodemanager //單獨啓動nodemanager
hadoop fs -put ./NOTICE.txt hdfs://ns/ //上傳文件至hdfs根目錄 hadoop fs -ls / 查看hdfs根目錄文件
hadoop fs -mkdir -p /jenkintest/tmp/spark01 [root@hadoop3 soft]# hadoop fs -ls /jenkintest/tmp/ Found 1 items drwxr-xr-x - root supergroup 0 2017-09-18 12:27 /jenkintest/tmp/spark01
-help linux
功能:輸出這個命令參數手冊web
-ls 數據庫
功能:顯示目錄信息app
示例: hadoop fs -ls hdfs://hadoop-server01:9000/oop
備註:這些參數中,全部的hdfs路徑均可以簡寫測試
-->hadoop fs -ls / 等同於上一條命令的效果spa
-mkdir 命令行
功能:在hdfs上建立目錄
示例:hadoop fs -mkdir -p /aaa/bbb/cc/dd
-moveFromLocal
功能:從本地剪切粘貼到hdfs
示例:hadoop fs - moveFromLocal /home/hadoop/a.txt /aaa/bbb/cc/dd
-moveToLocal
功能:從hdfs剪切粘貼到本地
示例:hadoop fs - moveToLocal /aaa/bbb/cc/dd /home/hadoop/a.txt
--appendToFile
功能:追加一個文件到已經存在的文件末尾
示例:hadoop fs -appendToFile ./hello.txt hdfs://hadoop-server01:9000/hello.txt
能夠簡寫爲:
Hadoop fs -appendToFile ./hello.txt /hello.txt
-cat
功能:顯示文件內容
示例:hadoop fs -cat /hello.txt
-tail
功能:顯示一個文件的末尾
示例:hadoop fs -tail /weblog/access_log.1
-text
功能:以字符形式打印一個文件的內容
示例:hadoop fs -text /weblog/access_log.1
-chgrp
-chmod
-chown
功能:linux文件系統中的用法同樣,對文件所屬權限
示例:
hadoop fs -chmod 666 /hello.txt
hadoop fs -chown someuser:somegrp /hello.txt
-copyFromLocal
功能:從本地文件系統中拷貝文件到hdfs路徑去
示例:hadoop fs -copyFromLocal ./jdk.tar.gz /aaa/
-copyToLocal
功能:從hdfs拷貝到本地
示例:hadoop fs -copyToLocal /aaa/jdk.tar.gz
-cp
功能:從hdfs的一個路徑拷貝hdfs的另外一個路徑
示例: hadoop fs -cp /aaa/jdk.tar.gz /bbb/jdk.tar.gz.2
-mv
功能:在hdfs目錄中移動文件
示例: hadoop fs -mv /aaa/jdk.tar.gz /
-get
功能:等同於copyToLocal,就是從hdfs下載文件到本地
示例:hadoop fs -get /aaa/jdk.tar.gz
-
功能:合併下載多個文件
示例:比getmerge 如hdfs的目錄 /aaa/下有多個文件:log.1, log.2,log.3,...
hadoop fs -getmerge /aaa/log.* ./log.sum
-put
功能:等同於copyFromLocal
示例:hadoop fs -put /aaa/jdk.tar.gz /bbb/jdk.tar.gz.2
-rm
功能:刪除文件或文件夾
示例:hadoop fs -rm -r /aaa/bbb/
-rmdir
功能:刪除空目錄
示例:hadoop fs -rmdir /aaa/bbb/ccc
-df
功能:統計文件系統的可用空間信息
示例:hadoop fs -df -h /
-du
功能:統計文件夾的大小信息
示例:
hadoop fs -du -s -h /aaa/*
-count
功能:統計一個指定目錄下的文件節點數量
示例:hadoop fs -count /aaa/
-setrep
功能:設置hdfs中文件的副本數量
示例:hadoop fs -setrep 3 /aaa/jdk.tar.gz
補充:查看dfs集羣工做狀態的命令
hdfs dfsadmin -report