iOS 底層拾遺:objc_msgSend 與方法緩存

前言

Runtime 消息發送與轉發流程老是你們關注的重點,卻經常忽略方法緩存機制這個顯著提高 objc_msgSend 性能的幕後功臣。算法

本文會經過源碼梳理消息發送與轉發流程,重點分析方法緩存機制的實現細節。行文過程當中會涉及到一些彙編代碼,不過不影響理解核心邏輯。數組

源碼基於 Runtime 750,arm64 架構。緩存

1、從 objc_msgSend 談起

注意: arm64 彙編代碼會出現不少p字母,其實是一個宏,64 位下是x,32 位下是wp就是寄存器。安全

在分析緩存機制以前,先梳理一下消息發送與轉發的流程,找到什麼時候進行緩存的存儲與讀取。bash

objc_msgSend

objc_msgSend 代碼以下:數據結構

ENTRY _objc_msgSend
	UNWIND _objc_msgSend, NoFram

    ...// 處理對象是 tagged pointer 或 nil 的狀況(x0 存的是 objc_object 對象地址)

	ldr	p13, [x0]       // p13 = isa 把 x0 指向內存的前 64 位放到 p13(便是 objc_object 的 isa 成員變量)
	GetClassFromIsa_p16 p13 // p16 = class 經過 isa 找到 class
LGetIsaDone:
	CacheLookup NORMAL      // 從方法緩存或方法列表中找到 IMP 並調用
    ...
複製代碼

在 64 位系統下GetClassFromIsa_p16宏代碼爲:架構

.macro GetClassFromIsa_p16
    ...
    and	p16, $0, #ISA_MASK // #define ISA_MASK 0x0000000ffffffff8ULL
    ...
複製代碼

$0獲取宏的第一個參數,調用時傳的p13,便是isa。這一步作的操做就是使用ISA_MASK掩碼找到isa變量中的Class並放入p16isaunion isa_t類型,在不少系統中已經不是單純的指向Class,還包含了內存管理等信息,因此須要用掩碼來獲取)。less

CacheLookup

CacheLookup包含讀取方法緩存的核心邏輯,代碼後面分析。函數

目前只須要知道它會查詢當前Class的方法緩存,主要產生兩種結果:若緩存命中,返回IMP或調用IMP;若緩存未命中,調用__objc_msgSend_uncached (找到IMP會調用) 或__objc_msgLookup_uncached (找到IMP不會調用) 方法。oop

STATIC_ENTRY __objc_msgSend_uncached
	UNWIND __objc_msgSend_uncached, FrameWithNoSaves

	MethodTableLookup
	TailCallFunctionPointer x17

	END_ENTRY __objc_msgSend_uncached
複製代碼

MethodTableLookup後面就是較爲複雜的方法查詢邏輯了,若找到了IMP會放到x17寄存器中,而後把x17的值傳遞給TailCallFunctionPointer宏調用方法。

MethodTableLookup

.macro MethodTableLookup
	// push frame
	SignLR
	stp	fp, lr, [sp, #-16]!
	mov	fp, sp

	...// save registers: x0..x8, q0..q7

	// receiver and selector already in x0 and x1
	mov	x2, x16
	bl	__class_lookupMethodAndLoadCache3

	// IMP in x0
	mov	x17, x0
	
	...// restore registers

	mov	sp, fp
	ldp	fp, lr, [sp], #16
	AuthenticateLR
.endmacro
複製代碼

因爲這個宏內部要跳轉函數,意味着lr的變化,因此開闢棧空間後須要把以前的fp/lr值存儲到棧上便於復位狀態。筆者刪除了save registersrestore registers的邏輯,其實就是將各個寄存器的值先存儲到棧上,內部函數幀釋放時便於復位寄存器的值。

在調用完__class_lookupMethodAndLoadCache3後會把返回在x0IMP值複製到x17中。

__class_lookupMethodAndLoadCache3是一個 C 函數,跳轉以前把x16的值複製到x2中(x16目前存儲的就是GetClassFromIsa_p16代碼找到的對象的Class),那麼此時寄存器佈局就是:x0 -> receiver / x1 -> selector / x2 -> class,也就對應了這個方法的參數列表:

IMP _class_lookupMethodAndLoadCache3(id obj, SEL sel, Class cls) {
    return lookUpImpOrForward(cls, sel, obj, 
                              YES/*initialize*/, NO/*cache*/, YES/*resolver*/);
}
複製代碼

lookUpImpOrForward

lookUpImpOrForward方法比較複雜,簡化邏輯以下:

IMP lookUpImpOrForward(Class cls, SEL sel, id inst, 
                       bool initialize, bool cache, bool resolver) {
    IMP imp = nil;
    bool triedResolver = NO;
    ...
    // cache 爲 YES 查找方法緩存
    if (cache) {
        imp = cache_getImp(cls, sel);
        if (imp) return imp;
    }
    // 加鎖
    runtimeLock.lock();
    // 若須要,進行類的空間分配初始化等工做
    ...

retry:
    // 在當前類方法緩存中查找 IMP
    imp = cache_getImp(cls, sel);
    if (imp) goto done;
    // 在當前類方法列表中查找 IMP
    if (找到 IMP) {
        把 IMP 存方法緩存
        goto done;
    }
    // 在父類的方法緩存/方法列表中查找 IMP
    while (Class cur = cls->superClass; cur != nil; cur = cur->superClass) {
        if (在方法緩存中找到 IMP) {
            if (IMP == _objc_msgForward_impcache) { break; }
            把 IMP 存入當前類 cls 的方法緩存
            goto done;
        }
        if (在方法列表中找到 IMP) {
            把 IMP 存入當前類 cls 的方法緩存
            goto done;
        }
    }
    // 沒有找到 IMP,嘗試進行動態消息處理
    if (resolver  &&  !triedResolver) {
        runtimeLock.unlock();
        _class_resolveMethod(cls, sel, inst);
        runtimeLock.lock();
        triedResolver = YES;
        goto retry;
    }
    // 若動態消息處理失敗,IMP 指向一個函數並將 IMP 存方法緩存
    imp = (IMP)_objc_msgForward_impcache;
    cache_fill(cls, sel, imp, inst);

done:
    runtimeLock.unlock();
    return imp;
}
複製代碼

方法緩存的存取

方法緩存存儲符合通常邏輯,只要找到了IMP就會進行緩存,加入方法緩存都會調用cache_fill方法。須要注意的是,若是是從父類鏈中找到的方法,仍然會加入當前類的緩存列表,這樣能大大提升查找在父類鏈中方法的效率。

可能讀者會疑惑這個方法爲何還會去取緩存?前面一堆彙編方法走到這裏的時候理論上當前類是已經沒有對應SEL的方法緩存了。前面個cache_getImp方法是由於lookUpImpOrForward函數會被其它函數調用,並不在前面筆者分析的流程中;而retry:下面的cache_getImp是由於在動態消息處理的時候可能會插入相關IMP而後goto retry

方法列表的查詢

類的方法列表的查詢經過getMethodNoSuper_nolock-> search_method_list方法處理,具體的邏輯不展開了,只需知道若方法列表是排過序的會使用二分搜索去查;不然就是一個簡單的遍歷查詢。因此在沒有方法緩存的狀況下方法的查詢效率是很低的,時間複雜度要麼是 O(logn) 要麼是 O(n)。

消息轉發的邏輯

_class_resolveMethod方法前面調用了unlock()lock(),關閉了類的保護狀態,便於開發者改變類的方法列表等。

_class_resolveMethod會向對象發送+resolveInstanceMethod(實例對象)或+resolveClassMethod(類對象)方法,開發者能夠在這兩個方法中爲類動態加入IMP_class_resolveMethod出棧後走goto retry會從新嘗試查找方法的邏輯。

固然,若開發者沒有作處理,IMP仍然找不到,經過!triedResolver避免二次動態消息處理,而後就會讓imp = (IMP)_objc_msgForward_impcache。如此一來,當lookUpImpOrForward函數幀釋放時,在上層看來仍然是找到IMP了,這個方法就是_objc_msgForward_impcache。那麼在前面分析的__objc_msgSend_uncached方法就仍然會調用這個IMP,接下來就是真正的消息轉發階段了。

STATIC_ENTRY __objc_msgForward_impcache
	b	__objc_msgForward
	END_ENTRY __objc_msgForward_impcache

	ENTRY __objc_msgForward
	adrp	x17, __objc_forward_handler@PAGE
	ldr	p17, [x17, __objc_forward_handler@PAGEOFF]
	TailCallFunctionPointer x17
	END_ENTRY __objc_msgForward
複製代碼

能夠發現經過頁地址加頁偏移的方式,拿到__objc_forward_handler的地址並調用,它是一個函數指針,在OBJC2下有默認實現:

__attribute__((noreturn)) void 
objc_defaultForwardHandler(id self, SEL sel)
{
    _objc_fatal("%c[%s %s]: unrecognized selector sent to instance %p "
                "(no message forward handler is installed)", 
                class_isMetaClass(object_getClass(self)) ? '+' : '-', 
                object_getClassName(self), sel_getName(sel), self);
}
void *_objc_forward_handler = (void*)objc_defaultForwardHandler;
複製代碼

最終看到了熟悉的unrecognized selector sent to instance描述。

而對於開發者熟悉的-forwardingTargetForSelector:重定向方法、-forwardInvocation:轉發方法,Runtime 源碼中沒有啥痕跡,在文件後面只有一個更改_objc_forward_handler指針的函數(筆者玩兒不動了,能夠猜想方法重定向和方法轉發是經過改變這個指針作邏輯的,感興趣能夠查看楊帝的逆向分析消息轉發文章:Objective-C 消息發送與轉發機制原理):

void objc_setForwardHandler(void *fwd, void *fwd_stret) {
    _objc_forward_handler = fwd;
    ...
}
複製代碼

小結

到目前爲止,整個消息發送機制算是比較清晰了,在按圖索驥的過程當中,發現了很多方法緩存的存取操做,主要是cache_getImpcache_fill函數。固然,方法緩存還有清理操做,後面再談。接下來的部分就着重分析方法緩存的實現細節。

2、方法緩存的數據結構基礎

cache_t是方法緩存的數據結構,在objc_classcache變量偏移64*2位:

struct objc_class : objc_object {
    // Class ISA;
    Class superclass;
    cache_t cache; 
    class_data_bits_t bits; 
...
複製代碼

bits存儲了類的屬性、協議、方法等,這裏不展開描述。cache_t的結構也很簡單:

struct cache_t {
    struct bucket_t *_buckets;  // bucket_t 數組
    mask_t _mask;               // 容量緩存個數減1
    mask_t _occupied;           // 有效緩存個數
...
複製代碼

咋一看就像是一個散列表,這和weak弱引用的底層數據結構(weak_table_t/weak_entry_t)一模一樣。bucket_t在 arm64 下代碼以下:

struct bucket_t {
    MethodCacheIMP _imp;
    cache_key_t _key;
...
複製代碼

MethodCacheIMP就是IMP別名,cache_key_t就是unsigned long

3、方法緩存的寫入

cache_fill

cache_fill是方法緩存寫入的入口方法:

void cache_fill(Class cls, SEL sel, IMP imp, id receiver) {
    mutex_locker_t lock(cacheUpdateLock);
    cache_fill_nolock(cls, sel, imp, receiver);
}
複製代碼

這個lock看起來很奇怪,進去一看其實是這樣一個類:

class locker : nocopy_t {
        mutex_tt& lock;
    public:
        locker(mutex_tt& newLock) 
            : lock(newLock) { lock.lock(); }
        ~locker() { lock.unlock(); }
    };
複製代碼

locker構造時加鎖,析構時解鎖,正好保護了方法做用域內的方法調用。這和 EasyReact 中大量使用的__attribute__((cleanup(AnyFUNC), unused))一模一樣,都是爲了實現自動解鎖的效果。

cache_fill_nolock

cache_fill_nolock是寫入的核心邏輯(爲了簡短有所修改):

static void cache_fill_nolock(Class cls, SEL sel, IMP imp, id receiver)
{
    ...
    // 在類初始化以前不容許寫入緩存
    if (!cls->isInitialized()) return;
    // 在走到這裏的時候,可能在佔有 cacheUpdateLock 的時候緩存已經被其它線程寫入了,因此先查詢一次緩存
    if (cache_getImp(cls, sel)) return;

    cache_t *cache = getCache(cls);
    cache_key_t key = getKey(sel);
    mask_t newOccupied = cache->occupied() + 1;
    mask_t capacity = cache->capacity();

    if (cache->isConstantEmptyCache()) {
        // 若是緩存是隻讀的,從新分配內存
        cache->reallocate(capacity, capacity ?: INIT_CACHE_SIZE);
    } else if (newOccupied > capacity / 4 * 3) {
        // 若是有效緩存數量超過了 3/4 就進行擴容
        cache->expand();
    }

    // 在散列表中找到一個空置的 bucket 寫入數據
    bucket_t *bucket = cache->find(key, receiver);
    if (bucket->key() == 0) cache->incrementOccupied();
    bucket->set(key, imp);
}
複製代碼

鎖的搶佔

cache_fill方法雖然已經加了鎖,但有可能多個線程同時訪問,且它們都是往同一個Class添加同一個SEL,如有一個線程佔有鎖後更新成功,其它線程在空轉或掛起一段時間後,就不必再次寫入緩存了,因此if (cache_getImp(cls, sel)) return;這句話是必要的。

這也是個保險措施,由於調用方可能在沒有判斷Class的某個SEL是否有緩存的時候就調用該方法。

散列表內存分配

void cache_t::reallocate(mask_t oldCapacity, mask_t newCapacity)
{
    bool freeOld = canBeFreed();
    bucket_t *oldBuckets = buckets();
    bucket_t *newBuckets = allocateBuckets(newCapacity);
    ...
    setBucketsAndMask(newBuckets, newCapacity - 1);
    if (freeOld) {
        cache_collect_free(oldBuckets, oldCapacity);
        cache_collect(false);
    }
}
複製代碼

直接將舊的bucket_t數組釋放了,而後建立新的數組,開闢內存方法allocateBuckets很簡單,就是開闢newCapacity * sizeof(bucket_t)的空間。那麼能夠肯定的是,方法緩存散列表每次分配內存都會放棄以前的緩存

後面的賦值方法蠻有意思:

#define mega_barrier() \
    __asm__ __volatile__( \
        "dsb ish" \
        : : : "memory")

void cache_t::setBucketsAndMask(struct bucket_t *newBuckets, mask_t newMask) {
    mega_barrier();
    _buckets = newBuckets;
    mega_barrier();
    _mask = newMask;
    _occupied = 0;
}
複製代碼

由於拋棄了以前的緩存,因此_occupied置爲 0。mega_barrier這個內聯彙編使用__volatile__關鍵字阻止編譯器緩存變量到寄存器不寫回,使用memory內存屏障避免 CPU 使用寄存器來優化執行指令,使用dsb ish隔離指令在它前面的存儲器訪問操做都執行完畢後,才執行在它後面的指令。這一個使盡渾身解數的宏是爲了幹嗎呢?

對於cache_t來講,讀取_buckets_mask都是沒有加鎖的,那麼就必定要保證_buckets的實際長度始終大於_mask,最壞的狀況不過只是訪問不到已有的緩存,否則在進行 hash 運算後極可能訪問到錯誤或非法的內存。

那麼第二個mega_barrier()就是爲了保證新的_buckets始終會在新的_mask以前賦好值。固然這有個前提,就是新_buckets的長度始終大於舊的。在cache_t算法中並無削減_buckets內存的邏輯,只有一個清空_buckets數組每一個bucketkey/imp的邏輯(清空後內存爲 readonly),因此這個前提是能保證的。

在前面cache_fill_nolock方法的if (cache->isConstantEmptyCache())分支正是內存被清空後標記爲 readonly 的邏輯,從新分配內存時會開闢一個INIT_CACHE_SIZE (8) 長度的空間,可能有讀者會疑問這個時候不就是新_buckets的長度小於舊的麼?

其實否則,在清空_buckets時雖然沒有削減內存,但_occupied(有效緩存數量)會置爲 0,也就是說這種狀況下是不會有其它線程訪問的。

第一個mega_barrier()就比較夢幻了,筆者可能理解有誤:

newBuckets指針開闢內存到賦值給_buckets的模擬以下:

一、開闢堆內存(地址 0x111)
二、x0 = 0x111
三、_buckets = x0
複製代碼

因爲內存訪問比寄存器訪問慢,極可能被操做系統優化成這樣:

一、x0 = 0x111
二、_buckets = x0
三、開闢堆內存(地址 0x111)
複製代碼

那麼第三步執行以前_buckets已經有值了,但這個內存仍是非法的,因此dsb應該是起到了關鍵做用,讓第 2 部執行以前必須把開闢堆內存的操做執行完畢。

散列表內存釋放

canBeFreed()就是判斷這個舊的_buckets是否是清理事後只讀的,若不是就能夠釋放(清理邏輯後面分析)。

釋放有兩步操做:

第一步cache_collect_free(oldBuckets, oldCapacity);是將待釋放的oldBuckets插入一個全局的二維數組:

static bucket_t **garbage_refs = 0;
複製代碼

具體的算法很少說了,反正就是garbage_refs滿了時會以兩倍的容量擴容。

第二步cache_collect(false);內部會判斷garbage_refs的大小,若小於32*1024什麼也不作。不然會進入一個循環判斷,若進程中沒有緩存的訪問操做才進行真正的內存釋放。

這麼作的目的應該也是爲了訪問安全,保證在對一塊cache_t內存訪問時不會去釋放這塊內存。

能夠看出,爲了訪問cache_t的成員變量時不加鎖,付出了很大的努力,可是對於這樣一個高頻訪問的緩存機制,這些努力都是值得的。

散列表的擴容

void cache_t::expand() {
    ...
    uint32_t oldCapacity = capacity();
    uint32_t newCapacity = oldCapacity ? oldCapacity*2 : INIT_CACHE_SIZE;
    // 越界處理
    if ((uint32_t)(mask_t)newCapacity != newCapacity) {
        newCapacity = oldCapacity;
    }
    reallocate(oldCapacity, newCapacity);
}
複製代碼

cache_t_mask成員變量是mask_t類型的,定義爲:

#if __LP64__
typedef uint32_t mask_t;  // x86_64 & arm64 asm are less efficient with 16-bits
#else
typedef uint16_t mask_t;
#endif
複製代碼

如註釋所說,64 位系統使用 32 位的整形效率較高。上面newCapacity是使用uint32_t運算的,因此若mask_t是 16 位時可能越界,若越界就放棄擴容,只是調用reallocate從新分配和以前等大的內存。

因爲以前分析分配內存方法reallocate老是建立新的內存放棄舊的,因此每次擴容都會放棄舊的緩存。可能會擔憂放棄舊緩存致使消息發送效率降低,其實散列表容量是以兩倍的速度擴展的,初始也是 8 個,對於大部分類來講,拓展少量的幾回就夠了。

擴容時放棄以前的緩存能帶來另一個好處:不用把舊緩存依次按照 hash 算法寫入散列表(由於擴容後散列表的 mask (容量) 會變化,將直接影響 hash 值會被掩碼截取的對象,因此不得不使用 hash 算法從新插入全部對象)。

散列表的寫入

寫入操做的核心操做就是經過cache_tfind函數讀取一個可用的bucket_t

bucket_t * cache_t::find(cache_key_t k, id receiver) {
    bucket_t *b = buckets();
    mask_t m = mask();
    mask_t begin = cache_hash(k, m);
    mask_t i = begin;
    do {
        if (b[i].key() == 0  ||  b[i].key() == k) {
            return &b[i];
        }
    } while ((i = cache_next(i, m)) != begin);
    ...
}
複製代碼

cache_hash散列算法就是簡單的操做:(mask_t)(key & mask),而後直接到數組中找出bucket_t.key()比較,若key爲 0 或與目標一致就返回這個bucket_t的地址。

當發生 hash 碰撞時,就使用cache_next將 hash 值累加 1,以此輪詢直到找到空位。cache_next代碼爲(i+1) & mask,就算 hash 值累加到數組最大值還未找到空位,又會回到數組頭部繼續尋找。因爲在容量達到 3/4 時散列表就會擴容,因此這個find操做是必然能找到空位的。

因爲bucket_t.key() == 0表示這個bucket_t爲空,因此在上層方法中有這樣一句代碼(_occupied++):

if (bucket->key() == 0) cache->incrementOccupied();
複製代碼

4、方法緩存的讀取

調用objc_msgSend或者cache_getImp中都會調用CacheLookup宏,它們的區別是調用時傳的參數不一樣:

objc_msgSend -> CacheLookup NORMAL
cache_getImp -> CacheLookup GETIMP
複製代碼

下面分析一下CacheLookup的上半截核心代碼:

.macro CacheLookup
        // p1 = SEL, p16 = isa
1        ldp	p10, p11, [x16, #CACHE] // p10 = buckets, p11 = occupied|mask
    #if !__LP64__
         and	w11, w11, 0xffff	// p11 = mask
    #endif
2        and	w12, w1, w11		// x12 = _cmd & mask
3        add	p12, p10, p12, LSL #(1+PTRSHIFT)
                         // p12 = buckets + ((_cmd & mask) << (1+PTRSHIFT))

4        ldp	p17, p9, [x12]		// {imp, sel} = *bucket
5    1:	cmp	p9, p1			// if (bucket->sel != _cmd)
6        b.ne	2f			//     scan more
7        CacheHit $0			// call or return imp

     2:	// not hit: p12 = not-hit bucket
8        CheckMiss $0			// miss if bucket->sel == 0
9        cmp    p12, p10		// wrap if bucket == buckets
10       b.eq   3f
11       ldp	p17, p9, [x12, #-BUCKET_SIZE]! // {imp, sel} = *--bucket
12       b	1b			// loop
         ...
複製代碼

實際上註釋就已經把整個邏輯說明得比較明白了,下面筆者進行一些解釋讓讀者看起來更容易(注意起始的寄存器狀態p1 = SEL, p16 = isa):

  • 第 1 行:有定義#define CACHE (2 * __SIZEOF_POINTER__),因此 64 位系統下CACHE == 64*2,根據數據結構可知這正是objc_classcache成員變量的偏移量,而cache_t中的第一個 64 位就是_buckets指針,mask_t是 32 位,因此第二個 64 位就是_mask + _occupied
  • 第 2 行:x11寄存器放的_mask + _occupied,那w11就是低 32 位_mask_cmd & mask就是方法緩存散列表的 hash 算法,因此x12如今就是 hash key 了。
  • 第 3 行:經過 hash key 算出指針偏移,找到其對應的bucket_tPTRSHIFT字面意思是指針偏移,雖然筆者沒有找到它的定義,但能夠試着推斷。因爲<< 1就是翻一倍,那麼buckets + ((_cmd & mask) << (1+PTRSHIFT)能夠轉化爲:buckets + ((_cmd & mask) * (2 的 1+PTRSHIFT 次方),一個bucket_t 128 位大小,那能夠推斷這個PTRSHIFT == 6。咱們知道mask是總長度 -1 的值,剛好適用於這裏的算法,因此這可能也是爲何存儲mask要 -1 的一個緣由。
  • 第 4 行:x12存了 hash key 對應的bucket_t對象地址了,將bucket的兩個成員變量分別取出,如今p17 -> imp / p9 -> sel
  • 第 5 行:p1存的是目標SEL,因此這裏是比較一下。
  • 第 6 行:若是狀態寄存器是 not equel (ne),則跳轉到2:,即第 8 行。
  • 第 7 行:命中緩存找到 IMP,調用CacheHitCacheHit根據$0判斷,如果NORMAL則調用IMP;如果GETIMP則返回IMP
  • 第 8 行:調用CheckMiss檢查緩存是否丟失,其實就是看p9 (sel) 是否爲 0。若爲 0 表示緩存丟失都會發生跳轉,CacheLookup後面的彙編代碼也不會走了。當$0NORMAL則調用前面分析過的__objc_msgSend_uncached;當$0GETIMP則跳轉到LGetImpMiss,不要奇怪LGetImpMiss是個啥,CacheLookupCheckMiss都是宏,上層調用有可能就是cache_getImp(跳到LGetImpMiss就復位了):
STATIC_ENTRY _cache_getImp
	GetClassFromIsa_p16 p0
	CacheLookup GETIMP
LGetImpMiss:
	mov	p0, #0 // 復位
	ret
	END_ENTRY _cache_getImp
複製代碼
  • 第 9 行:p10就是數組指針的頭部,與當前找到的bucket比較。
  • 第 10 行:若相等說明循環完成還沒找到緩存,則跳轉到3f (暫時無論實現,反正就是跳出 hash 算法查找)。
  • 第 11 行:說明 hash 衝突了,有定義#define BUCKET_SIZE (2 * __SIZEOF_POINTER__)bucket_t正好兩個指針大,因此這裏就是進行了指針的移動,即向緩存數組前一個下標移動(有點奇怪,方法緩存寫入的時候出現 hash 衝突是 +1,這裏是 -1,不過老是能完整遍歷)。
  • 第 12 行:跳轉到1b,造成循環。

CacheLookup下半截作了些什麼

3:	// wrap: p12 = first bucket, w11 = mask
	add	p12, p12, w11, UXTW #(1+PTRSHIFT)
    // p12 = buckets + (mask << 1+PTRSHIFT)
    ...(省略了循環邏輯)
複製代碼

p12指向散列表末尾,而後作了和前面同樣的向前遍歷查詢。

仔細看前面跳轉到3:的指令,若到了這裏說明經過 hash key 找到的SEL始終不爲 0,可是也不等於目標SEL,也就是始終是 hash 衝突狀態,向前遍歷完散列表都沒有找到目標SEL

那麼,這部分會從散列表尾遍歷到散列表頭:

散列表頭  (上半截遍歷部分)  hash key  (未遍歷部分)  散列表尾
複製代碼

可能有讀者會以爲這個遍歷會重複查詢上半截代碼遍歷過的部分,實際上不會。因爲散列表會在滿 3/4 時就擴容,因此把3:以前未遍歷的部分找完就確定能拿到緩存或者丟失(SEL == 目標SEL == 0),那循環就會被打破。

5、方法緩存的清理

緩存清理分兩種模式,一種是清理散列表的內容,而不是削減散列表的容量;一種是直接釋放整個散列表。

清理內容

void cache_erase_nolock(Class cls) {
    ...
    cache_t *cache = getCache(cls);

    mask_t capacity = cache->capacity();
    if (capacity > 0  &&  cache->occupied() > 0) {
        auto oldBuckets = cache->buckets();
        auto buckets = emptyBucketsForCapacity(capacity);
        cache->setBucketsAndMask(buckets, capacity - 1); // also clears occupied
        cache_collect_free(oldBuckets, capacity);
        cache_collect(false);
    }
}
複製代碼

主要是將舊的oldBuckets釋放掉,而後經過emptyBucketsForCapacity函數獲取新的容量相同的buckets數組,這個方法獲取的數組在語言上沒有限制只讀,但須要把它理解爲只讀數組

emptyBucketsForCapacity的大體邏輯:

  • capacity足夠小,返回一個和bucket_t *大小相同的全局變量_objc_empty_cache
  • 不然,從一個靜態 hash 表static bucket_t **emptyBucketsList = nil;獲取;若未找到,則初始化一個等大的空間,存儲進emptyBucketsList,同時把中間空的數組填滿,便於 hash key 落在之間的對象獲取bucket_t數組。

還記得前面的cache->isConstantEmptyCache()調用判斷緩存是否只讀麼?這個函數實際上就是調用了emptyBucketsForCapacity判斷這個緩存數組是否屬於只讀數組。

爲何要作這麼複雜的邏輯來清空一個數組?其實在前面的散列表內存分配一節已經解釋了,就是爲了保證緩存散列表的讀安全。

搜索一下源碼,隨便列舉幾個須要調用這個清空方法的地方:

  • attachCategories將 Category 信息同步到 Class 時。
  • _method_setImplementation / method_exchangeImplementations直接設置方法的實現或交換方法實現時。
  • addMethod / addMethods添加方法時。
  • setSuperclass設置父類時。

須要清空的狀況一句話歸納:可能會致使緩存失效時。

直接釋放

cache_delete先會經過isConstantEmptyCache函數判斷數組內容是否爲只讀的,若不是隻讀則調用free直接釋放。可能有讀者擔憂這個釋放會讓方法緩存的讀取變得不安全,實際上不會,由於筆者只看到free_class時會調用。

後語

方法緩存機制爲了極致的效率而不給讀取邏輯加鎖,爲了讓讀取安全作了不少額外複雜工做,不過帶來的收益是很大的,由於方法緩存讀取頻率極高。

objc_msgSend 的邏輯無疑是比較複雜的,涉及了很多彙編與操做系統的知識,不過按圖索驥分析起來也不是一件很困難的事,在這最後筆者不得不說一句:

iOS 太難了。

相關文章
相關標籤/搜索