Linux內存管理 - slab分配器和kmalloc

本文目的在於分析Linux內存管理機制的slab分配器。內核版本爲2.6.31。
1. SLAB分配器

內核須要常常分配內存,咱們在內核中最經常使用的分配內存的方式就是kmalloc了。前面講過的夥伴系統只支持按頁分配內存,但這個單位太大了,有時候咱們並不須要這麼大的內存,好比我想申請128字節的空間,若是直接使用夥伴系統則需分配4KB的一整頁,這顯然是浪費。

slab分配器將頁拆分爲更小的單位來管理,來知足小於一頁的內存需求。它將連續的幾個頁劃分出更小的部分拿來分配相同類型的內存對象,對象的位置儘可能作到某種對齊要求(如處理器的L1高速緩存行對齊)以便不對CPU高速緩存和TLB帶來顯著影響。slab把一類對象統一管理,例如,劃出兩個頁的內存,將其分紅n小份用來分配一類對象的實例,同時slab也維護一些通用的對象,用來供kmalloc使用。

提供小塊內存並非slab分配器的惟一任務,因爲結構上的特色,它也用做一個緩存,主要針對常常分配內存並釋放的對象。slab分配器將釋放的內存保存在一個內部列表中,並不立刻返還給夥伴系統。在請求爲該類對象分配一個實例時,會使用最近釋放的內存塊,這樣就沒必要觸及夥伴系統以縮短分配消耗的時間,另外因爲該內存塊是「新」的,其駐留在CPU高速緩存的機率也會較高。

在下面的代碼分析中,你會看到slab的這些「手段」是如何實現的。

先說一下「slab着色(slab coloring)」機制,是用來防止高速緩存衝突的:相同類型的slab、對象頗有可能被保存到相同的CPU cache的緩存行中,常用的對象被放到CPU cache中,這固然使咱們想要的,但若是兩個不一樣的對象每次都被放到相同的緩存行中,那交替的讀取這兩個對象,會致使緩存行的內容不斷的被更新,也就沒法體現緩存的好處了。不過個人內核版本是2.6.31,已經沒有slab着色機制了,因此你們看到coloring什麼的就不要再糾結了。

內核中還提供了slob和slub兩種替代品,由於slab的結構很複雜,而且須要使用太多額外的空間去管理一類對象。關於這兩個替代品我就很少說了,slub在性能和緩存佔用方面都要優於slab,而且在一些嵌入式設備上會看到內核使用slub。
2. SLAB分配器的實現
2.1 SLAB分配器初始化

系統啓動時slab分配器初始化的函數爲kmem_cache_init()和kmem_cache_init_late()。函數名中的「cache」是指slab分配器,咱們也稱做slab緩存,注意,它與CPU中的高速緩存沒有關係,但上面講到slab利用了高速緩存的特性。下面的分析中,我會使用「slab緩存」這種叫法。

kmem_cache_init()函數爲分配slab對象準備最基本的環境。在分析這個函數以前,咱們先看一個內核中建立slab緩存的例子:

    static struct kmem_cache *nf_conntrack_cachep __read_mostly;
     
    nf_conntrack_cachep= kmem_cache_create("nf_conntrack",
                         sizeof(struct nf_conn),
                         0, SLAB_DESTROY_BY_RCU, NULL);

上面的代碼在內核協議棧的連接跟蹤模塊中建立struct nf_conn的slab緩存,這個slab緩存用於分配struct nf_conn對象。

當想申請一個struct nf_conn結構的對象時,使用kmem_cache_alloc()函數進行分配。

    struct nf_conn *ct;
    ct =kmem_cache_alloc(nf_conntrack_cachep, gfp);

能夠看到,建立和使用slab緩存是很是方便的。在/proc/slabinfo文件中能夠看到內核中所建立的slab緩存。

kmem_cache_create()用於建立一個slab緩存,在哪裏建立呢,kmem_cache_init()函數的工做就是初始化用於建立slab緩存的slab緩存。也就是說,一個slab緩存也應該是經過函數kmem_cache_create()來建立的,可是很容易想到,內核中的第一個slab緩存確定不能經過這個函數來建立,在內核中使用一個編譯時生成的靜態變量做爲第一個slab緩存。

slab緩存用一個struct kmem_cache結構來描述。內核中的第一個slab緩存定義以下:

    static struct kmem_cache cache_cache = {
        .batchcount = 1,
        .limit = BOOT_CPUCACHE_ENTRIES,
        .shared = 1,
        .buffer_size = sizeof(struct kmem_cache),
        .name = "kmem_cache",
    };

系統中全部的slab緩存都被放入一個全局鏈表中:

staticstruct list_head cache_chain;

接下來咱們來分析kmem_cache_init()函數,它的實現分爲下面幾個步驟:

1.   建立cache_cache,它將用於分配系統中除了它自身之外的全部slab緩存的kmem_cache對象。

2.   建立能夠分配struct arraycache_init和struct kmem_list3的slab cache。先建立這兩個通用cache的緣由後面會講到,他們也供kmalloc使用。這兩個cache是經過kmem_cache_create()建立的,由於cache_cache已經可用了。這一步以後,將slab_early_init置爲0。

3.   使用kmem_cache_create()建立剩餘的通用cache,「剩餘」是相對第2步中的兩個cache,他們都是能夠供kmalloc使用的。這些通用cache的名字和對象大小見下面表格。

4.   爲cache_cache.array[]和malloc_sizes[INDEX_AC].cs_cachep->array[]從新分配空間。

5.   爲cache_cache.nodelists[]、malloc_sizes[INDEX_AC].cs_cachep-> nodelists[]和malloc_sizes[INDEX_L3].cs_cachep-> nodelists[]從新分配空間。

通用cache的名字和對象大小用兩個數組來記錄:malloc_sizes[]和cache_names[]。

cache_names[]
    

malloc_sizes[]

size-32
    

32

size-64
    

64

size-96
    

96

size-128
    

128

……
    

……

NULL
    

ULONG_MAX

對於數據結構的其餘細節先不作討論,在講到在一個cache上分配對象時會說明數據結構。

這部分須要注意一些靜態變量,在初始化cache_cache的時候只用到了靜態分配的變量,他們之間的關係以下圖,其中全局變量用紅色標出。


這時尚未用戶本身建立的slab cache,因此這裏看到的都是通用cache。這些通用cache主要供kmalloc使用。在這期間,不要使用kmalloc函數。
2.2 建立SLAB緩存

除了cache_cache自身,建立一個slab緩存的方法爲kmem_cache_create()。slab緩存分爲on-slab和off-slab兩種,on-slab就是slab管理信息和它所管理的對象放在一塊兒,off-slab就是slab管理信息和他所管理的對象分開存放,後面會看到爲何會區分這兩種類型的slab。

咱們先了解一下struct kmem_cache結構體的成員。

    struct kmem_cache {
    /* 1)per-cpu data, touched during every alloc/free */
        struct array_cache *array[NR_CPUS]; /*per-CPU緩存 */
    /* 2)Cache tunables. Protected by cache_chain_mutex */
        unsigned int batchcount;
        unsigned int limit;
        unsigned int shared;
     
       /*每次分配的大小,如nf_conn的cache的buffer_size爲sizeof(structnf_conn) */
        unsigned int buffer_size;
        u32 reciprocal_buffer_size;
    /* 3)touched by every alloc & free from the backend */
        unsigned int flags;      /* constant flags */
        unsigned int num;    /* # of objs per slab */
     
    /* 4)cache_grow/shrink */
        /* order of pgs per slab (2^n) */
        unsigned int gfporder;
     
        /* force GFP flags, e.g. GFP_DMA */
        gfp_t gfpflags;
     
        size_t colour;           /* cache colouring range */
        unsigned int colour_off; /* colour offset */
        /* 爲slab管理信息分配空間的cache。 */
        struct kmem_cache *slabp_cache;
        /* slab管理信息的size,即struct slab和n個kmem_bufctl_t */
        unsigned int slab_size;
        unsigned int dflags;     /* dynamic flags */
     
        /* constructor func */
        void (*ctor)(void *obj);
     
    /* 5) cache creation/removal */
        const char *name;
        struct list_head next;
     
        /*
        * We put nodelists[] at the end ofkmem_cache.
        * We still use [MAX_NUMNODES] and not [1] or[0] because cache_cache
        * is statically defined, so we reserve themax number of nodes.
        */
        struct kmem_list3 *nodelists[MAX_NUMNODES];
        /*
         * Donot add fields after nodelists[]
         */
    };

kmem_cache_create()函數的聲明以下:

    struct kmem_cache *
    kmem_cache_create(const char *name, size_t size, size_t align,
        unsigned long flags, void (*ctor)(void *));

五個參數分別爲:

name:要建立的cache的名字,將賦值給kmem_cache結構的name成員。

size:要建立的cache每次分配對象的大小,將賦值給kmem_cache結構的buffer_size成員。

align:分配對象以及slab管理信息的對齊量,基本上都爲0,即便用默認的對齊方式。

flags:標記,kmem_cache結構的flags成員。

ctor:分配新的slab的時候的構造函數,kmem_cache結構的ctor成員。

這個函數的工做以下:

1.   根據flags、CPU的cache line以及傳入的align參數,調整slab管理信息的的對齊量。

2.   用kmem_cache_zalloc(&cache_cache, gfp)在cache_cache上分配一個kmem_cache結構實例cachep。

3.   若是對象的size不小於(PAGE_SIZE >> 3),而且全局標記slab_early_init=0,就強制給flags設置CFLGS_OFF_SLAB。

4.   根據align調整buffer_size大小,並調用calculate_slab_order()函數,該函數從order=0尋找最小的order知足2^order個頁的大小可用於分配至少一個對象,找到以後給cachep->num和cachep->gfporder賦值,num成員爲2^gfporder個頁可分配多少個對象,函數返回值left_over爲剩餘的空間。對於on slab的cache而言,知足cachep->num * cachep->buffer_size+ cachep->slab_size + left_over = (2 ^ cachep->gfporder) * PAGE_SIZE。而對於off slab的cache而言,知足cachep->num * cachep->buffer_size + left_over = (2 ^ cachep->gfporder)* PAGE_SIZE,即沒有slab管理信息的空間,由於off slab的cache的管理信息單獨放到另外一個地方。

5.   若是left_over比slab管理信息空間大,且cachep是off slab的,則把cachep改成on slab的,即清除CFLGS_OFF_SLAB標記。同時將left_over的值減掉slab管理信息的大小。

6.   給cachep的一些成員賦值:

        cachep->colour_off = cache_line_size();
        /* Offset must be a multiple of thealignment. */
        if (cachep->colour_off < align)
           cachep->colour_off = align;
        cachep->colour = left_over /cachep->colour_off;
        cachep->slab_size = slab_size;
        cachep->flags = flags;
        cachep->gfpflags = 0;
        if (CONFIG_ZONE_DMA_FLAG && (flags& SLAB_CACHE_DMA))
           cachep->gfpflags |= GFP_DMA;
        cachep->buffer_size = size;
        cachep->reciprocal_buffer_size =reciprocal_value(size);

7.   若是cachep是off slab的, slab管理信息單獨放在其餘一個地方。這個地方就是根據slab_size(slab管理信息的大小)在通用cache上選擇一個合適的cache,注意這裏只是選擇cache,沒有給slab信息分配空間。選好的cache賦值給cachep->slabp_cache。

8.   對cachep->nodelists[0]和cachep->array[0]賦值。調用的函數爲setup_cpu_cache(),這個函數中根據全局變量g_cpucache_up的值給cachep的兩個成員分配不一樣的值。最終結果就是爲cachep->array[0]分配sizeof(void *) * cachep->batchcount+ sizeof(struct array_cache)大小的空間,其中cachep->batchcount是struct array_cache中entry的數目。cachep->nodelists[0]中的三個鏈表都初始爲空。

9.   將cachep加入到全局鏈表:list_add(&cachep->next, &cache_chain);

g_cpucache_up變量:

這個變量記錄了在不一樣階段,slab緩存初始化的狀態,它可取的值有:

    static enum {
       NONE,
       PARTIAL_AC,
       PARTIAL_L3,
       EARLY,
       FULL
    } g_cpucache_up;

在kmem_cache_init()和kmem_cache_init_late()之間沒有調用過kmem_cache_create(),即在g_cpucache_up等於EARLY和FULL之間沒有建立過cache。也就是說,g_cpucache_up除了FULL以外的全部狀態都只在kmem_cache_init()中有用到,即只有建立通用cache有用到。

假定INDEX_AC=0,PARTIAL_L3=3。下表顯示了隨着建立不一樣的slab緩存,g_cpucache_up記錄的狀態的變化:

cache名稱
    

g_cpucache_up

cache_cache
    

NONE

size-32(array cache)
    

NONE

size-64(kmem_list3 structures)
    

PARTIAL_AC

其餘通用cache
    

PARTIAL_L3

自定義cache
    

FULL

 
2.3 在SLAB緩存分配空間

在slab緩存中分配對象,使用的函數是kmem_cache_alloc()或kmem_cache_zalloc(),函數返回void *類型指針。實際的分配工做由____cache_alloc()完成,它的函數體很簡單:

    static inline void *____cache_alloc(struct kmem_cache *cachep, gfp_t flags)
    {
        void *objp;
        struct array_cache *ac;
     
        ac = cpu_cache_get(cachep); /* ac =cachep->array[0] */
        if (likely(ac->avail)) {
            ac->touched= 1;
           objp = ac->entry[--ac->avail]; /* 最後一個entry */
        } else {
           objp = cache_alloc_refill(cachep, flags);
        }
        return objp;
    }

若是cachep->array[0]->avail不爲0,則直接從cachep->array[0]->entry[]末尾取一個對象返回,並將avail的值減1。

若是cachep->array[0]->avail爲0,即沒有可用對象可分配,則調用cache_alloc_refill()。

struct kmem_cache的array數組的每一個元素都是一個per-CPU緩存,slab分配一個對象,最終都是先填充到這個緩存中,再在這上面分配出去的。

    struct kmem_cache {
        /* 1) per-cpu data, touched during everyalloc/free */
        struct array_cache *array[NR_CPUS]; /*per-CPU緩存 */
        ……
    }

struct array_cache結構體定義以下:

    struct array_cache {
       unsigned int avail; /* 該緩存中可用對象的數目 */
       unsigned int limit; /* 對象數目的限制,在釋放緩存時使用 */
       /* 若是該緩存中沒有對象可分配了,每次須要向slab申請填充對象的數量 */
       unsigned int batchcount;
       unsigned int touched; /* 該緩存是不是活動的(最近分配過對象) */
       spinlock_t lock;
       void *entry[]; /* 實際的對象存放在這兒 */ /*
               * Must have thisdefinition in here for the proper
               * alignment ofarray_cache. Also simplifies accessing
               * the entries.
               */
    };

在per-CPU緩存上分配對象時,是從後往前分配的,每分配出一個對象,avail減1,因此avail除了表示可用的對象數量,仍是一個數組下標,能夠經過array.entry[avail]直接獲取對象。而在釋放對象時,則先放到per-CPU緩存的最後,由於內核假設剛釋放的對象仍然處在CPU高速緩存中,會盡快在此分配它。

per-CPU緩存的entry[]是一個指針數組,因此它只是存放對象的指針,真正的對象在slab緩存中。

咱們先看一下一個on slab的cache中每一個slab的結構:


圖中,slab中的對象總數由cachep->num記錄。colour爲着色區,咱們不去關注。slab管理信息部分包括一個struct slab結構,以及cachep->num個kmem_bufctl_t的值,方便來定位某個對象。淺藍色的對象區域存放實際的對象,每一個對象大小由cachep->buffer_size指出。能夠看出,一個slab緩存中,有不少空間用做了管理信息。

struct slab結構體定義以下,注意inuse和free兩個成員的含義:

    struct slab {
       struct list_head list;
       unsigned long colouroff;
       void *s_mem;
       /* 已經被使用的對象,最多爲cachep->num*/
       unsigned int inuse;
    /* 標識當前還未被分配的對象的kmem_bufctl_t區域偏移量 */
       kmem_bufctl_t free;
       unsigned short nodeid;
    };

咱們使用kmem_cache_alloc(cachep, flags)在cache上申請一個對象時的分配步驟以下:

1.   先試圖在array cache即cachep->array[0]->entry[]上獲取,它上面可分配的對象的數目由cachep->array[0]->avail記錄。若是這一步找到了可用對象,就返回ac->entry[--ac->avail]。注意,在kmem_cache_create的時候,沒有分配對象的空間,因此avail確定是0的。

2.   當avail=0的時候,則array cache已經用完。就試圖在kmem_list3即cachep->nodelists[0]上面分配,這就是cache_alloc_refill()函數須要作的事情。structkmem_list3中有三個雙向鏈表,分別指向「已部分使用的slab」、「已用盡的slab」和「徹底空閒的slab」。


1) cache_alloc_refill()先查找slabs_partial鏈表中有沒有slab,若是有則在這裏分配;若是沒有則查找slabs_free鏈表中有沒有slab,若是有則在這裏分配。在這兩個鏈表上分配對象的方式爲:將slab中的cachep->array[0]->batchcount數量的對象「分配」給cachep->array[0]->entry[],這個「分配」的過程只是指針指向的操做。而後cachep->array[0]的inuse成員的值增長,free成員前移,同時更新cachep->array[0]->avail的值。這樣,array cache上又可分配對象了,因而返回ac->entry[--ac->avail]。

注意,在slab分配出去batchcount個對象後,須要判斷該slabs鏈表是否用盡,若是用盡就將其轉移到slabs_full鏈表中。

2) 若是在slabs_partial和slabs_free鏈表中都沒有slab對象了,就須要在內存中從新分配一個slab。這是cache_grow()函數的工做。

3.   cache_grow()函數的主要任務就是在夥伴系統中分配2^(cachep->gfporder)個頁,並給分配的頁都加上PG_slab標記使其爲slab使用。該函數具體實現以下:

a)     算出這次分配的slab的colour空間,其實這些結構體的colour相關的成員在內核中並無用到。下面代碼中cachep->colour是在建立cache的時候經過left_over計算的,爲顏色數量,l3->colour_next是當前選擇cachep->colour中的哪一個顏色,cachep->colour_off是每一個顏色佔用的空間大小。最後算出的offset便是上圖中最開始的colour區域的長度。

        l3 = cachep->nodelists[nodeid];
        spin_lock(&l3->list_lock);
        offset = l3->colour_next;/* init as 0 */
        l3->colour_next++;
        if (l3->colour_next >= cachep->colour)
           l3->colour_next = 0; /* 取值爲0 ~ colour-1 */
        spin_unlock(&l3->list_lock);
        offset *= cachep->colour_off;

例如若是一個cache的cachep->colour=3,即有三種顏色,則分配的slab開頭的colour區域的長度就可能爲0、cachep->colour_off和2 * cachep->colour_off。

b)    分配2^(cachep->gfporder)個頁,並給分配的頁加上PG_slab標記。分配成功後得到第一個頁的起始地址的指針objp。

c)     在objp中分配slab管理信息的空間。這裏分爲兩種狀況,若是cache是on slab的,則直接在objp的地址上非slab管理信息分配空間,並給struct slab的成員賦值。而若是是off slab的,即slab管理信息和slab對象不在一塊兒,這時slab管理信息對象是在cachep->slabp_cache上分配的,分配的函數依然是調用kmem_cache_alloc()。

d)    將分配的全部頁與所屬的slab和cache創建映射關係,具體作法爲,將objp開始的2^(cache->gfporder)個頁對應的struct page都進行如下賦值:

    page->lru.next = (structlist_head *)cache;
    page->lru.prev = (structlist_head *)slab;

其中cache和slab是當前的cache和剛分配的slab信息。這樣的目的是爲了能夠方便的找到一個對象所屬於的slab和cache。

e)    調用每一個對象的ctor方法,並給每一個對象對應的kmem_bufctl_t賦個值,這個值從1開始,直到cachep->num-1,最後一個kmem_bufctl_t賦值爲BUFCTL_END。

f)     將分配好的slab添加到l3的slabs_free列表中,即cachep->nodelists[0]->slabs_free列表。同時l3->free_objects += cachep->num,注意這個值是l3中的三個列表中可用對象的總數,但不是cachep中可用對象的總數,由於ac->entry[]中還有。

cache_grow()返回後,從新執行cache_alloc_refill()函數,這時即可以在上述的步驟中即可以找到一個對象來返回。

咱們再回過頭來看一下爲cachep分配slab管理信息的函數alloc_slabmgmt()。上面的c)步驟中講到在off slab的時候要在cachep->slabp_cache上分配slab管理信息,咱們知道這個slabp_cache是在kmem_cache_create的時候根據slab_size大小在通用cache上選擇的一個合適的cache。而在分配slab管理信息的時候,slab管理信息做爲cache的對象slabp_cache又會有它本身的slab管理信息,這樣又會重複這一分配動做,一定會致使遞歸,固然遞歸的前提是slabp_cache是off slab的,也就說,slabp_cache不能是off slab的。我實際看到的slabp_cache都是size-64或size-32,所以都是on slab的,我人爲的將size-64或size-32改成off slab的,不出所料,kernel就起不來了。

若是cache是off slab的,那它的slab結構分爲兩部分:


2.4 在SLAB緩存釋放空間

釋放slab對象使用kmem_cache_free()函數,它直接調用了__cache_free()函數。

釋放一個對象時,分爲兩種狀況:

1. 若是per-CPU緩存中可用對象數目小於其limit的限制,則直接將對象釋放到per-CPU緩存中。

2. 若是per-CPU緩存中可用對象數目達到其limit的限制,則須要先將batchcount數目的對象釋放到slab緩存中,這個釋放動做順序爲從前日後(即釋放下標爲0~batchcount-1的對象),由於這時最開始釋放的對象極可能已經不在高速緩存中了。而後再將咱們要釋放的對象釋放到per-CPU緩存中,而且將以前下標爲batchcount以及以後的對象前移。

    static inline void__cache_free(struct kmem_cache *cachep, void *objp)
    {
       struct array_cache *ac = cpu_cache_get(cachep);
     
       ……
     
       if (likely(ac->avail < ac->limit)) {
           ac->entry[ac->avail++] = objp;
           return;
       } else {
           cache_flusharray(cachep, ac);
           ac->entry[ac->avail++] = objp;
       }
    }

釋放部分對象到slab緩存中的函數爲cache_flusharray(),最終經過free_block()完成的,free_block()函數的工做是:

1. 獲取對象所在的slab緩存,這是經過virt_to_page()來完成的。前面在分析cache_grow()函數時講到過slab和page的關係。

2. 將獲得的slab從緩存鏈表中刪除。

3. 將對象放回到slab中。

4. 將slab從新添加到緩存鏈表中,分兩種狀況:若是這時slab中全部對象都是未使用的,就將其放到slabs_free鏈表中,不然將其放到slabs_partial鏈表中。另外,若是將slab放到slabs_free鏈表,會先檢查緩存中空閒對象數目總數是否超過了預約義的free_limit限制,若是超過了,則直接調用slab_destroy()釋放掉這個slab。

    static voidfree_block(struct kmem_cache *cachep, void **objpp, int nr_objects,
                  int node)
    {
       int i;
       struct kmem_list3 *l3;
     
       for (i = 0; i < nr_objects; i++) {
           void *objp = objpp[i];
           struct slab *slabp;
          
           /* 獲取對象所在的slab */
           slabp = virt_to_slab(objp);
           l3 = cachep->nodelists[node];
     
           /* 將slab刪除 */
           list_del(&slabp->list);
           check_spinlock_acquired_node(cachep, node);
           check_slabp(cachep, slabp);
     
           /* 將對象放回slab中 */
           slab_put_obj(cachep, slabp, objp, node);
           STATS_DEC_ACTIVE(cachep);
           l3->free_objects++;
           check_slabp(cachep, slabp);
     
           /* 將slab從新添加到緩存鏈表中 */
           if (slabp->inuse == 0) {
              /* 若是對象總數超出限制,釋放整個slab */
              if (l3->free_objects > l3->free_limit) {
                  l3->free_objects -= cachep->num;
                  /* No need to drop any previously held
                   * lock here,even if we have a off-slab slab
                   * descriptor itis guaranteed to come from
                   * a differentcache, refer to comments before
                   *alloc_slabmgmt.
                   */
                  slab_destroy(cachep, slabp);
              } else {
                  /* 添加到slabs_free鏈表中的開頭 */
                  list_add(&slabp->list, &l3->slabs_free);
              }
           } else {
              /* Unconditionally move a slab to the end of the
               * partial list onfree - maximum time for the
               * other objects tobe freed, too.
               */
              /* 添加到slabs_partial鏈表的末尾 */
              list_add_tail(&slabp->list,&l3->slabs_partial);
           }
       }
    }

2.5 銷燬SLAB緩存

要銷燬一個slab緩存(struct kmem_cache結構的實例),須要調用kmem_cache_destroy()函數,該函數刪除緩存的步驟爲:

1. 將cachep從cache_cache鏈表中刪除。

2. 將cachep中全部對象釋放掉,空間還給夥伴系統。若是該slab緩存是off-slab的,還要將slab管理信息從cachep->slabp_cache中釋放。

3. 將cachep的per-CPU緩存和struct kmem_list3結構釋放。

4. 因爲cachep是cache_cache的一個對象,因此須要將cache_cache中將該對象刪除,這一步使用了kmem_cache_free()函數,將slab緩存包括它管理的全部對象都釋放。
2. kmalloc

slab是kmalloc的基礎,kmalloc使用上面講到的通用slab緩存來分配空間。

void *kmalloc(size_t size,gfp_t flags);

kmalloc可分配的最大size由KMALLOC_MAX_SIZE定義,這個值在2^25B和buddy的最大分配階之間取一個小值。

    #defineKMALLOC_SHIFT_HIGH  ((MAX_ORDER +PAGE_SHIFT - 1) <= 25 ? \
                  (MAX_ORDER + PAGE_SHIFT - 1) : 25)
    #define KMALLOC_MAX_SIZE (1UL<< KMALLOC_SHIFT_HIGH)
    #defineKMALLOC_MAX_ORDER   (KMALLOC_SHIFT_HIGH -PAGE_SHIFT)

kmalloc的實現很簡單:

1.   根據size大小找到最小能裝下一個對象的通用cache。

2.   調用kmem_cache_alloc(cachep,flags)進行分配。

由此可知,kmalloc分配的空間是物理上連續的。

原文:https://blog.csdn.net/jasonchen_gbd/article/details/44024009 node

相關文章
相關標籤/搜索