YARN內存使用優化配置

在Hadoop2.0中, YARN負責管理MapReduce中的資源(內存, CPU等)而且將其打包成Container. 這樣能夠精簡MapReduce, 使之專一於其擅長的數據處理任務, 將無需考慮資源調度. 以下圖所示
Screen Shot 2014-05-24 at 上午11.43.46java

YARN會管理集羣中全部機器的可用計算資源. 基於這些資源YARN會調度應用(好比MapReduce)發來的資源請求, 而後YARN會經過分配Container來給每一個應用提供處理能力, Container是YARN中處理能力的基本單元, 是對內存, CPU等的封裝. node

目前我這裏的服務器狀況:6臺slave,每臺:32G內存,2*6核CPU。服務器

因爲hadoop 1.x存在JobTracker和TaskTracker,資源管理有它們實現,在執行mapreduce做業時,資源分爲map task和reduce task。因此存在下面兩個參數分別設置每一個TaskTracker能夠運行的任務數:架構

<property>
    <name>mapred.tasktracker.map.tasks.maximum</name>
    <value>6</value>
    <description><![CDATA[CPU數量=服務器CPU總核數 / 每一個CPU的核數;服務器CPU總核數 = more /proc/cpuinfo | grep 'processor' | wc -l;每一個CPU的核數 = more /proc/cpui nfo | grep 'cpu cores']]></description>
</property>
<property>
        <name>mapred.tasktracker.reduce.tasks.maximum</name>
        <value>4</value>
        <description>一個task tracker最多能夠同時運行的reduce任務數量</description>
</property>

可是在hadoop 2.x中,引入了Yarn架構作資源管理,在每一個節點上面運行NodeManager負責節點資源的分配,而slot也再也不像1.x那樣區分Map slot和Reduce slot。在Yarn上面Container是資源的分配的最小單元。oop

Yarn集羣的內存分配配置在yarn-site.xml文件中配置:ui

    <property>
        <name>yarn.nodemanager.resource.memory-mb</name>
        <value>22528</value>
        <discription>每一個節點可用內存,單位MB</discription>
    </property>
    
    <property>
        <name>yarn.scheduler.minimum-allocation-mb</name>
        <value>1500</value>
        <discription>單個任務可申請最少內存,默認1024MB</discription>
    </property>
    
    <property>
        <name>yarn.scheduler.maximum-allocation-mb</name>
        <value>16384</value>
        <discription>單個任務可申請最大內存,默認8192MB</discription>
    </property>

 因爲我Yarn集羣還須要跑Spark的任務,而Spark的Worker內存相對須要大些,因此須要調大單個任務的最大內存(默認爲8G)。spa

而Mapreduce的任務的內存配置:code

property>
        <name>mapreduce.map.memory.mb</name>
        <value>1500</value>
        <description>每一個Map任務的物理內存限制</description>
    </property>
    
    <property>
        <name>mapreduce.reduce.memory.mb</name>
        <value>3000</value>
        <description>每一個Reduce任務的物理內存限制</description>
    </property>
    
    <property>
        <name>mapreduce.map.java.opts</name>
        <value>-Xmx1200m</value>
    </property>
    
    <property>
        <name>mapreduce.reduce.java.opts</name>
        <value>-Xmx2600m</value>
    </property>

mapreduce.map.memory.mb:每一個map任務的內存,應該是大於或者等於Container的最小內存。

按照上面的配置:每一個slave能夠運行map的數據<= 22528/1500,reduce任務的數量<=22528/3000
相關文章
相關標籤/搜索