Hadoop 2.4.1 登陸認證配置小結

  1.簡單模式html

  這種模式,配置簡單,使用簡單。linux

  core-site.xml添加apache

    <property>
        <name>hadoop.security.authorization</name>
        <value>true</value>
    </property>
    <property>
        <name>hadoop.security.authentication</name>
        <value>simple</value>
    </property>

  hadoop.security.authentication能夠不用配,默認就是simple的。安全

  hadoop-policy.xml,是設置各類服務對應的可登錄的用戶和組,*天然是全部的,看裏面的註釋就能夠了,或者直接看官方文檔http://hadoop.apache.org/docs/r2.4.1/hadoop-project-dist/hadoop-common/ServiceLevelAuth.html,裏面有詳細的介紹和使用方式。運維

  可登陸的用戶在列表裏面,實際運行時,還要看用戶對各類資源的rwx權限,這個權限要用「hadoop fs」相關的命令進行設置了,和linux系統下設置文件權限是同樣的。oop

  問題在於這種登陸,有個用戶名就能夠,安全性不高啊,果真是簡單模式。實際應用時,就本身用用仍是能夠的,搭配下防火牆應該問題不大。可是,若是要對外提供服務啥的,這問題仍是不小的,僞造個用戶名鏈接上服務,只要一行代碼設置環境變量就僞造好了。。。spa

  2.kerberos認證code

  官方文檔先掛上http://hadoop.apache.org/docs/stable2/hadoop-project-dist/hadoop-common/SecureMode.htmlxml

  core-site.xmlhtm

    <property>
        <name>hadoop.security.authorization</name>
        <value>true</value>
    </property>
    <property>
        <name>hadoop.security.authentication</name>
        <value>kerberos</value>
    </property>

  接着就是安裝kerberos,再就是一堆的配置啥的,而後,看到篇文章介紹支付寶hadoop集羣使用kerberos的狀況,裏面所說,對於用戶權限的修改,機器的減容擴容,會形成證書要從新生成,再分發證書,重啓hadoop,並且還要考慮kerberos的宕機致使整個集羣沒法服務的風險,還有支付寶的那個例子,運維都難,仍是不用了。。。

  3.看來是要修改hadoop源碼,添加本身的驗證體系了。

相關文章
相關標籤/搜索