yarn資源memory與core計算配置

 

yarn調度分配主要是針對Memory與CPU進行管理分配,並將其組合抽象成container來管理計算使用node

 

 

memory配置apache

  計算每臺機子最多能夠擁有多少個container:oop

     containers = min (2*CORES, 1.8*DISKS, (Total available RAM) / MIN_CONTAINER_SIZE) 性能

 

   說明:優化

      CORES爲機器CPU核數spa

      DISKS爲機器上掛載的磁盤個數操作系統

      Total available RAM爲機器總內存
      MIN_CONTAINER_SIZE是指container最小的容量大小,這須要根據具體狀況去設置,能夠參考下面的表格:
線程

                  

  每一個container的平均使用內存大小計算方式爲:code

       RAM-per-container = max(MIN_CONTAINER_SIZE, (Total Available RAM) / containers)) blog

 

 相關配置調整說明:

1)yarn.nodemanager.resource.memory-mb
    表示該節點上YARN可以使用的物理內存總量,默認是8192(MB),注意,若是你的節點內存資源不夠8GB,則須要調減少這個值,而YARN不會智能的探測節點的物理內存總量。

(2)yarn.nodemanager.vmem-pmem-ratio
    任務每使用1MB物理內存,最多可以使用虛擬內存量,默認是2.1。

(3) yarn.nodemanager.pmem-check-enabled
    是否啓動一個線程檢查每一個任務正使用的物理內存量,若是任務超出分配值,則直接將其殺掉,默認是true。

(4) yarn.nodemanager.vmem-check-enabled
    是否啓動一個線程檢查每一個任務正使用的虛擬內存量,若是任務超出分配值,則直接將其殺掉,默認是true。

(5)yarn.scheduler.minimum-allocation-mb
    單個container可申請的最少物理內存量,默認是1024(MB),若是一個任務申請的物理內存量少於該值,則該對應的值改成這個數。

(6)yarn.scheduler.maximum-allocation-mb
    單個container可申請的最多物理內存量,默認是8192(MB)。

  

  默認狀況下,YARN採用了線程監控的方法判斷任務是否超量使用內存,一旦發現超量,則直接將其殺死。因爲Cgroups對內存的控制缺少靈活性(即任務任什麼時候刻不能超過內存上限,若是超過,則直接將其殺死或者報OOM),而Java進程在建立瞬間內存將翻倍,以後驟降到正常值,這種狀況下,採用線程監控的方式更加靈活(當發現進程樹內存瞬間翻倍超過設定值時,可認爲是正常現象,不會將任務殺死),所以YARN未提供Cgroups內存隔離機制。

 

 

CPU配置

  在yarn中使用的是虛擬CPU,這裏的虛擬CPU是YARN本身引入的概念,初衷是,考慮到不一樣節點的CPU性能可能不一樣,每一個CPU具備的計算能力也是不同的,好比某個物理CPU的計算能力多是另一個物理CPU的2倍,這時候,你能夠經過爲第一個物理CPU多配置幾個虛擬CPU彌補這種差別。用戶提交做業時,能夠指定每一個任務須要的虛擬CPU個數。在YARN中,CPU相關配置參數以下:

(1)yarn.nodemanager.resource.cpu-vcores
    表示該節點上YARN可以使用的虛擬CPU個數,默認是8,注意,目前推薦將該值設值爲與物理CPU核數數目相同。
    若是你的節點CPU核數不夠8個,則須要調減少這個值,而YARN不會智能的探測節點的物理CPU總數。

(2)yarn.scheduler.minimum-allocation-vcores
    單個任務可申請的最小虛擬CPU個數,默認是1,若是一個任務申請的CPU個數少於該數,則該對應的值改成這個數。

(3)yarn.scheduler.maximum-allocation-vcores
    單個任務可申請的最多虛擬CPU個數,默認是32。

  默認狀況下,YARN是不會對CPU資源進行調度的,你須要配置相應的資源調度器讓你支持,具體參看如下連接:

  (1)Hadoop YARN配置參數剖析(4)—Fair Scheduler相關參數

  (2)Hadoop YARN配置參數剖析(5)—Capacity Scheduler相關參數

 

  默認狀況下,NodeManager不會對CPU資源進行任何隔離,你能夠經過啓用Cgroups讓你支持CPU隔離。

因爲CPU資源的獨特性,目前這種CPU分配方式仍然是粗粒度的。舉個例子,不少任務多是IO密集型的,消耗的CPU資源很是少,若是此時你爲它分配一個CPU,則是一種嚴重浪費,你徹底可讓他與其餘幾個任務公用一個CPU,也就是說,咱們須要支持更粒度的CPU表達方式。

  借鑑亞馬遜EC2中CPU資源的劃分方式,即提出了CPU最小單位爲EC2 Compute Unit(ECU),一個ECU表明至關於1.0-1.2 GHz 2007 Opteron or 2007 Xeon處理器的處理能力。YARN提出了CPU最小單位YARN Compute Unit(YCU),目前這個數是一個整數,默認是720,由參數yarn.nodemanager.resource.cpu-ycus-per-core設置,表示一個CPU core具有的計算能力(該feature在2.2.0版本中並不存在,可能增長到2.3.0版本中),這樣,用戶提交做業時,直接指定須要的YCU便可,好比指定值爲360,表示用1/2個CPU core,實際表現爲,只使用一個CPU core的1/2計算時間。注意,在操做系統層,CPU資源是按照時間片分配的,你能夠說,一個進程使用1/3的CPU時間片,或者1/5的時間片。對於CPU資源劃分和調度的探討,可參考如下幾個連接:

https://issues.apache.org/jira/browse/YARN-1089

https://issues.apache.org/jira/browse/YARN-1024

Hadoop 新特性、改進、優化和Bug分析系列5:YARN-3

 

轉載參考:董的博客

相關文章
相關標籤/搜索