yarn-site.xml 配置介紹

yarn-site.xml 配置介紹

yarn.scheduler.minimum-allocation-mb

yarn.scheduler.maximum-allocation-mb

說明:單個容器可申請的最小與最大內存,應用在運行申請內存時不能超過最大值,小於最小值則分配最小值,從這個角度看,最小值有點想操做系統中的頁。最小值還有另一種用途,計算一個節點的最大container數目注:這兩個值一經設定不能動態改變(此處所說的動態改變是指應用運行時)。

默認值:1024/8192

yarn.scheduler.minimum-allocation-vcores

yarn.scheduler.maximum-allocation-vcores

參數解釋:單個可申請的最小/最大虛擬CPU個數。好比設置爲1和4,則運行MapRedce做業時,每一個Task最少可申請1個虛擬CPU,最多可申請4個虛擬CPU。

默認值:1/32

yarn.nodemanager.resource.memory-mb

yarn.nodemanager.vmem-pmem-ratio

說明:每一個節點可用的最大內存,RM中的兩個值不該該超過此值。此數值能夠用於計算container最大數目,即:用此值除以RM中的最小容器內存。虛擬內存率,是佔task所用內存的百分比,默認值爲2.1倍;注意:第一個參數是不可修改的,一旦設置,整個運行過程當中不可動態修改,且該值的默認大小是8G,即便計算機內存不足8G也會按着8G內存來使用。

默認值:8G /2.1

yarn.nodemanager.resource.cpu-vcores

參數解釋:NodeManager總的可用虛擬CPU個數。

默認值:8


AM內存配置相關參數,此處以MapReduce爲例進行說明(這兩個值是AM特性,應在mapred-site.xml中配置),以下:
mapreduce.map.memory.mb
mapreduce.reduce.memory.mb
說明:這兩個參數指定用於MapReduce的兩個任務(Map and Reduce task)的內存大小,其值應該在RM中的最大最小container之間。若是沒有配置則經過以下簡單公式得到:
max(MIN_CONTAINER_SIZE, (Total Available RAM) / containers))
通常的reduce應該是map的2倍。注:這兩個值能夠在應用啓動時經過參數改變;

AM中其它與內存相關的參數,還有JVM相關的參數,這些參數能夠經過,以下選項配置:
mapreduce.map.java.opts
mapreduce.reduce.java.opts
說明:這兩個參主要是爲須要運行JVM程序(java、scala等)準備的,經過這兩個設置能夠向JVM中傳遞參數的,與內存有關的是,-Xmx,-Xms等選項。此數值大小,應該在AM中的map.mb和reduce.mb之間。

咱們對上面的內容進行下總結,當配置Yarn內存的時候主要是配置以下三個方面:每一個Map和Reduce可用物理內存限制;對於每一個任務的JVM對大小的限制;虛擬內存的限制;

下面經過一個具體錯誤實例,進行內存相關說明,錯誤以下:
Container[pid=41884,containerID=container_1405950053048_0016_01_000284] is running beyond virtual memory limits. Current usage: 314.6 MB of 2.9 GB physical memory used; 8.7 GB of 6.2 GB virtual memory used. Killing container.
配置以下:

    <property>
        <name>yarn.nodemanager.resource.memory-mb</name>
        <value>100000</value>
    </property>
    <property>
        <name>yarn.scheduler.maximum-allocation-mb</name>
        <value>10000</value>
    </property>
    <property>
        <name>yarn.scheduler.minimum-allocation-mb</name>
        <value>3000</value>
    </property>
    <property>
        <name>mapreduce.reduce.memory.mb</name>
        <value>2000</value>
    </property>



經過配置咱們看到,容器的最小內存和最大內存分別爲:3000m和10000m,而reduce設置的默認值小於2000m,map沒有設置,因此兩個值均爲3000m,也就是log中的「2.9 GB physical memory used」。而因爲使用了默認虛擬內存率(也就是2.1倍),因此對於Map Task和Reduce Task總的虛擬內存爲都爲3000*2.1=6.2G。而應用的虛擬內存超過了這個數值,故報錯 。解決辦法:在啓動Yarn是調節虛擬內存率或者應用運行時調節內存大小.

mapred-site.xml
java

 

 

在上Yarn的框架管理中,不管是AM從RM申請資源,仍是NM管理本身所在節點的資源,都是經過container進行的。Container是Yarn的資源抽象,此處的資源包括內存和cup等。下面對container,進行比較詳細的介紹。爲了是你們對container有個比較形象的認識,首先看下圖:



從上圖中咱們能夠看到,首先AM經過請求包ResourceRequest從RM申請資源,當獲取到資源後,AM對其進行封裝,封裝成ContainerLaunchContext對象,經過這個對象,AM與NM進行通信,以便啓動該任務。下面經過ResourceRequest、container和ContainerLaunchContext的protocol
ResourceRequest結構以下:

    message ResourceRequestProto {
    optional PriorityProto priority = 1; // 資源優先級
    optional string resource_name = 2; // 指望資源所在的host
    optional ResourceProto capability = 3; // 資源量(mem、cpu)
    optional int32 num_containers = 4; // 知足條件container個數
    optional bool relax_locality = 5 ; //default = true;
    }


對上面結構進行簡要按序號說明:
2:在提交申請時,指望從哪臺主機上得到,但最終仍是AM與RM協商決定;
3:只包含兩種資源,即:內存和cpu,申請方式:
注:一、因爲2與4並無限制資源申請量,則AP在資源申請上是無限的。二、Yarn採用覆蓋式資源申請方式,即:AM每次發出的資源請求會覆蓋掉以前在同一節點且優先級相同的資源請求,也就是說同一節點中相同優先級的資源請求只能有一個。

container結構:

    message ContainerProto {
    optional ContainerIdProto id = 1; //container id
    optional NodeIdProto nodeId = 2; //container(資源)所在節點
    optional string node_http_address = 3;
    optional ResourceProto resource = 4; //分配的container數量
    optional PriorityProto priority = 5; //container的優先級
    optional hadoop.common.TokenProto container_token = 6; //container token,用於安全認證
    }


注:每一個container通常能夠運行一個任務,當AM收到多個container時,將進一步分給某我的物。如:MapReduce

ContainerLaunchContext結構:

    message ContainerLaunchContextProto {
    repeated StringLocalResourceMapProto localResources = 1; //該Container運行的程序所需的在資源,例如:jar包
    optional bytes tokens = 2;//Security模式下的SecurityTokens
    repeated StringBytesMapProto service_data = 3;
    repeated StringStringMapProto environment = 4; //Container啓動所需的環境變量
    repeated string command = 5; //該Container所運行程序的命令,好比運行的爲java程序,即$JAVA_HOME/bin/java org.ourclassrepeated ApplicationACLMapProto application_ACLs = 6;//該Container所屬的Application的訪問控制列表
    }


下面結合一段代碼,僅以ContainerLaunchContext爲例進行描述(本應該寫個簡單的有限狀態機的,便於你們理解,但時間不怎麼充分):

申請一個新的ContainerLaunchContext:

    ContainerLaunchContext ctx = Records.newRecord(ContainerLaunchContext.class);
              填寫必要的信息:
    ctx.setEnvironment(...);
    childRsrc.setResource(...);
    ctx.setLocalResources(...);
    ctx.setCommands(...);
    啓動任務:
    startReq.setContainerLaunchContext(ctx);



最後對container進行以下總結:container是Yarn的資源抽象,封裝了節點上的一些資源,主要是CPU與內存;container是AM向NM申請的,其運行是由AM向資源所在NM發起的,並最終運行
的。有兩類container:一類是AM運行須要的container;另外一類是AP爲執行任務向RM申請的。


每一個slave能夠運行

map的數據<=yarn.nodemanager.resource.memory-mb/mapreduce.map.memory.mb,

reduce任務的數量<=yarn.nodemanager.resource.memory-mb/mapreduce.reduce.memory.mb

node

相關文章
相關標籤/搜索