1.簡單模式html
這種模式,配置簡單,使用簡單。linux
core-site.xml添加apache
<property> <name>hadoop.security.authorization</name> <value>true</value> </property> <property> <name>hadoop.security.authentication</name> <value>simple</value> </property>
hadoop.security.authentication能夠不用配,默認就是simple的。安全
hadoop-policy.xml,是設置各類服務對應的可登錄的用戶和組,*天然是全部的,看裏面的註釋就能夠了,或者直接看官方文檔http://hadoop.apache.org/docs/r2.4.1/hadoop-project-dist/hadoop-common/ServiceLevelAuth.html,裏面有詳細的介紹和使用方式。運維
可登陸的用戶在列表裏面,實際運行時,還要看用戶對各類資源的rwx權限,這個權限要用「hadoop fs」相關的命令進行設置了,和linux系統下設置文件權限是同樣的。oop
問題在於這種登陸,有個用戶名就能夠,安全性不高啊,果真是簡單模式。實際應用時,就本身用用仍是能夠的,搭配下防火牆應該問題不大。可是,若是要對外提供服務啥的,這問題仍是不小的,僞造個用戶名鏈接上服務,只要一行代碼設置環境變量就僞造好了。。。spa
2.kerberos認證code
官方文檔先掛上http://hadoop.apache.org/docs/stable2/hadoop-project-dist/hadoop-common/SecureMode.htmlxml
core-site.xmlhtm
<property> <name>hadoop.security.authorization</name> <value>true</value> </property> <property> <name>hadoop.security.authentication</name> <value>kerberos</value> </property>
接着就是安裝kerberos,再就是一堆的配置啥的,而後,看到篇文章介紹支付寶hadoop集羣使用kerberos的狀況,裏面所說,對於用戶權限的修改,機器的減容擴容,會形成證書要從新生成,再分發證書,重啓hadoop,並且還要考慮kerberos的宕機致使整個集羣沒法服務的風險,還有支付寶的那個例子,運維都難,仍是不用了。。。
3.看來是要修改hadoop源碼,添加本身的驗證體系了。