Runtime 消息發送與轉發流程老是你們關注的重點,卻經常忽略方法緩存機制這個顯著提高 objc_msgSend 性能的幕後功臣。算法
本文會經過源碼梳理消息發送與轉發流程,重點分析方法緩存機制的實現細節。行文過程當中會涉及到一些彙編代碼,不過不影響理解核心邏輯。數組
源碼基於 Runtime 750,arm64 架構。緩存
注意: arm64 彙編代碼會出現不少p
字母,其實是一個宏,64 位下是x
,32 位下是w
,p
就是寄存器。安全
在分析緩存機制以前,先梳理一下消息發送與轉發的流程,找到什麼時候進行緩存的存儲與讀取。bash
objc_msgSend 代碼以下:數據結構
ENTRY _objc_msgSend
UNWIND _objc_msgSend, NoFram
...// 處理對象是 tagged pointer 或 nil 的狀況(x0 存的是 objc_object 對象地址)
ldr p13, [x0] // p13 = isa 把 x0 指向內存的前 64 位放到 p13(便是 objc_object 的 isa 成員變量)
GetClassFromIsa_p16 p13 // p16 = class 經過 isa 找到 class
LGetIsaDone:
CacheLookup NORMAL // 從方法緩存或方法列表中找到 IMP 並調用
...
複製代碼
在 64 位系統下GetClassFromIsa_p16
宏代碼爲:架構
.macro GetClassFromIsa_p16
...
and p16, $0, #ISA_MASK // #define ISA_MASK 0x0000000ffffffff8ULL
...
複製代碼
$0
獲取宏的第一個參數,調用時傳的p13
,便是isa
。這一步作的操做就是使用ISA_MASK
掩碼找到isa
變量中的Class
並放入p16
(isa
是union isa_t
類型,在不少系統中已經不是單純的指向Class
,還包含了內存管理等信息,因此須要用掩碼來獲取)。less
CacheLookup
包含讀取方法緩存的核心邏輯,代碼後面分析。函數
目前只須要知道它會查詢當前Class
的方法緩存,主要產生兩種結果:若緩存命中,返回IMP
或調用IMP
;若緩存未命中,調用__objc_msgSend_uncached
(找到IMP
會調用) 或__objc_msgLookup_uncached
(找到IMP
不會調用) 方法。oop
STATIC_ENTRY __objc_msgSend_uncached
UNWIND __objc_msgSend_uncached, FrameWithNoSaves
MethodTableLookup
TailCallFunctionPointer x17
END_ENTRY __objc_msgSend_uncached
複製代碼
MethodTableLookup
後面就是較爲複雜的方法查詢邏輯了,若找到了IMP
會放到x17
寄存器中,而後把x17
的值傳遞給TailCallFunctionPointer
宏調用方法。
.macro MethodTableLookup
// push frame
SignLR
stp fp, lr, [sp, #-16]!
mov fp, sp
...// save registers: x0..x8, q0..q7
// receiver and selector already in x0 and x1
mov x2, x16
bl __class_lookupMethodAndLoadCache3
// IMP in x0
mov x17, x0
...// restore registers
mov sp, fp
ldp fp, lr, [sp], #16
AuthenticateLR
.endmacro
複製代碼
因爲這個宏內部要跳轉函數,意味着lr
的變化,因此開闢棧空間後須要把以前的fp/lr
值存儲到棧上便於復位狀態。筆者刪除了save registers
和restore registers
的邏輯,其實就是將各個寄存器的值先存儲到棧上,內部函數幀釋放時便於復位寄存器的值。
在調用完__class_lookupMethodAndLoadCache3
後會把返回在x0
的IMP
值複製到x17
中。
__class_lookupMethodAndLoadCache3
是一個 C 函數,跳轉以前把x16
的值複製到x2
中(x16
目前存儲的就是GetClassFromIsa_p16
代碼找到的對象的Class
),那麼此時寄存器佈局就是:x0 -> receiver / x1 -> selector / x2 -> class
,也就對應了這個方法的參數列表:
IMP _class_lookupMethodAndLoadCache3(id obj, SEL sel, Class cls) {
return lookUpImpOrForward(cls, sel, obj,
YES/*initialize*/, NO/*cache*/, YES/*resolver*/);
}
複製代碼
lookUpImpOrForward
方法比較複雜,簡化邏輯以下:
IMP lookUpImpOrForward(Class cls, SEL sel, id inst,
bool initialize, bool cache, bool resolver) {
IMP imp = nil;
bool triedResolver = NO;
...
// cache 爲 YES 查找方法緩存
if (cache) {
imp = cache_getImp(cls, sel);
if (imp) return imp;
}
// 加鎖
runtimeLock.lock();
// 若須要,進行類的空間分配初始化等工做
...
retry:
// 在當前類方法緩存中查找 IMP
imp = cache_getImp(cls, sel);
if (imp) goto done;
// 在當前類方法列表中查找 IMP
if (找到 IMP) {
把 IMP 存方法緩存
goto done;
}
// 在父類的方法緩存/方法列表中查找 IMP
while (Class cur = cls->superClass; cur != nil; cur = cur->superClass) {
if (在方法緩存中找到 IMP) {
if (IMP == _objc_msgForward_impcache) { break; }
把 IMP 存入當前類 cls 的方法緩存
goto done;
}
if (在方法列表中找到 IMP) {
把 IMP 存入當前類 cls 的方法緩存
goto done;
}
}
// 沒有找到 IMP,嘗試進行動態消息處理
if (resolver && !triedResolver) {
runtimeLock.unlock();
_class_resolveMethod(cls, sel, inst);
runtimeLock.lock();
triedResolver = YES;
goto retry;
}
// 若動態消息處理失敗,IMP 指向一個函數並將 IMP 存方法緩存
imp = (IMP)_objc_msgForward_impcache;
cache_fill(cls, sel, imp, inst);
done:
runtimeLock.unlock();
return imp;
}
複製代碼
方法緩存存儲符合通常邏輯,只要找到了IMP
就會進行緩存,加入方法緩存都會調用cache_fill
方法。須要注意的是,若是是從父類鏈中找到的方法,仍然會加入當前類的緩存列表,這樣能大大提升查找在父類鏈中方法的效率。
可能讀者會疑惑這個方法爲何還會去取緩存?前面一堆彙編方法走到這裏的時候理論上當前類是已經沒有對應SEL
的方法緩存了。前面個cache_getImp
方法是由於lookUpImpOrForward
函數會被其它函數調用,並不在前面筆者分析的流程中;而retry:
下面的cache_getImp
是由於在動態消息處理的時候可能會插入相關IMP
而後goto retry
。
類的方法列表的查詢經過getMethodNoSuper_nolock
-> search_method_list
方法處理,具體的邏輯不展開了,只需知道若方法列表是排過序的會使用二分搜索去查;不然就是一個簡單的遍歷查詢。因此在沒有方法緩存的狀況下方法的查詢效率是很低的,時間複雜度要麼是 O(logn) 要麼是 O(n)。
在_class_resolveMethod
方法前面調用了unlock()
和lock()
,關閉了類的保護狀態,便於開發者改變類的方法列表等。
_class_resolveMethod
會向對象發送+resolveInstanceMethod
(實例對象)或+resolveClassMethod
(類對象)方法,開發者能夠在這兩個方法中爲類動態加入IMP
,_class_resolveMethod
出棧後走goto retry
會從新嘗試查找方法的邏輯。
固然,若開發者沒有作處理,IMP
仍然找不到,經過!triedResolver
避免二次動態消息處理,而後就會讓imp = (IMP)_objc_msgForward_impcache
。如此一來,當lookUpImpOrForward
函數幀釋放時,在上層看來仍然是找到IMP
了,這個方法就是_objc_msgForward_impcache
。那麼在前面分析的__objc_msgSend_uncached
方法就仍然會調用這個IMP
,接下來就是真正的消息轉發階段了。
STATIC_ENTRY __objc_msgForward_impcache
b __objc_msgForward
END_ENTRY __objc_msgForward_impcache
ENTRY __objc_msgForward
adrp x17, __objc_forward_handler@PAGE
ldr p17, [x17, __objc_forward_handler@PAGEOFF]
TailCallFunctionPointer x17
END_ENTRY __objc_msgForward
複製代碼
能夠發現經過頁地址加頁偏移的方式,拿到__objc_forward_handler
的地址並調用,它是一個函數指針,在OBJC2
下有默認實現:
__attribute__((noreturn)) void
objc_defaultForwardHandler(id self, SEL sel)
{
_objc_fatal("%c[%s %s]: unrecognized selector sent to instance %p "
"(no message forward handler is installed)",
class_isMetaClass(object_getClass(self)) ? '+' : '-',
object_getClassName(self), sel_getName(sel), self);
}
void *_objc_forward_handler = (void*)objc_defaultForwardHandler;
複製代碼
最終看到了熟悉的unrecognized selector sent to instance
描述。
而對於開發者熟悉的-forwardingTargetForSelector:
重定向方法、-forwardInvocation:
轉發方法,Runtime 源碼中沒有啥痕跡,在文件後面只有一個更改_objc_forward_handler
指針的函數(筆者玩兒不動了,能夠猜想方法重定向和方法轉發是經過改變這個指針作邏輯的,感興趣能夠查看楊帝的逆向分析消息轉發文章:Objective-C 消息發送與轉發機制原理):
void objc_setForwardHandler(void *fwd, void *fwd_stret) {
_objc_forward_handler = fwd;
...
}
複製代碼
到目前爲止,整個消息發送機制算是比較清晰了,在按圖索驥的過程當中,發現了很多方法緩存的存取操做,主要是cache_getImp
和cache_fill
函數。固然,方法緩存還有清理操做,後面再談。接下來的部分就着重分析方法緩存的實現細節。
cache_t
是方法緩存的數據結構,在objc_class
中cache
變量偏移64*2
位:
struct objc_class : objc_object {
// Class ISA;
Class superclass;
cache_t cache;
class_data_bits_t bits;
...
複製代碼
bits
存儲了類的屬性、協議、方法等,這裏不展開描述。cache_t
的結構也很簡單:
struct cache_t {
struct bucket_t *_buckets; // bucket_t 數組
mask_t _mask; // 容量緩存個數減1
mask_t _occupied; // 有效緩存個數
...
複製代碼
咋一看就像是一個散列表,這和weak
弱引用的底層數據結構(weak_table_t
/weak_entry_t
)一模一樣。bucket_t
在 arm64 下代碼以下:
struct bucket_t {
MethodCacheIMP _imp;
cache_key_t _key;
...
複製代碼
MethodCacheIMP
就是IMP
別名,cache_key_t
就是unsigned long
。
cache_fill
是方法緩存寫入的入口方法:
void cache_fill(Class cls, SEL sel, IMP imp, id receiver) {
mutex_locker_t lock(cacheUpdateLock);
cache_fill_nolock(cls, sel, imp, receiver);
}
複製代碼
這個lock
看起來很奇怪,進去一看其實是這樣一個類:
class locker : nocopy_t {
mutex_tt& lock;
public:
locker(mutex_tt& newLock)
: lock(newLock) { lock.lock(); }
~locker() { lock.unlock(); }
};
複製代碼
在locker
構造時加鎖,析構時解鎖,正好保護了方法做用域內的方法調用。這和 EasyReact 中大量使用的__attribute__((cleanup(AnyFUNC), unused))
一模一樣,都是爲了實現自動解鎖的效果。
cache_fill_nolock
是寫入的核心邏輯(爲了簡短有所修改):
static void cache_fill_nolock(Class cls, SEL sel, IMP imp, id receiver)
{
...
// 在類初始化以前不容許寫入緩存
if (!cls->isInitialized()) return;
// 在走到這裏的時候,可能在佔有 cacheUpdateLock 的時候緩存已經被其它線程寫入了,因此先查詢一次緩存
if (cache_getImp(cls, sel)) return;
cache_t *cache = getCache(cls);
cache_key_t key = getKey(sel);
mask_t newOccupied = cache->occupied() + 1;
mask_t capacity = cache->capacity();
if (cache->isConstantEmptyCache()) {
// 若是緩存是隻讀的,從新分配內存
cache->reallocate(capacity, capacity ?: INIT_CACHE_SIZE);
} else if (newOccupied > capacity / 4 * 3) {
// 若是有效緩存數量超過了 3/4 就進行擴容
cache->expand();
}
// 在散列表中找到一個空置的 bucket 寫入數據
bucket_t *bucket = cache->find(key, receiver);
if (bucket->key() == 0) cache->incrementOccupied();
bucket->set(key, imp);
}
複製代碼
鎖的搶佔
cache_fill
方法雖然已經加了鎖,但有可能多個線程同時訪問,且它們都是往同一個Class
添加同一個SEL
,如有一個線程佔有鎖後更新成功,其它線程在空轉或掛起一段時間後,就不必再次寫入緩存了,因此if (cache_getImp(cls, sel)) return;
這句話是必要的。
這也是個保險措施,由於調用方可能在沒有判斷Class
的某個SEL
是否有緩存的時候就調用該方法。
void cache_t::reallocate(mask_t oldCapacity, mask_t newCapacity)
{
bool freeOld = canBeFreed();
bucket_t *oldBuckets = buckets();
bucket_t *newBuckets = allocateBuckets(newCapacity);
...
setBucketsAndMask(newBuckets, newCapacity - 1);
if (freeOld) {
cache_collect_free(oldBuckets, oldCapacity);
cache_collect(false);
}
}
複製代碼
直接將舊的bucket_t
數組釋放了,而後建立新的數組,開闢內存方法allocateBuckets
很簡單,就是開闢newCapacity * sizeof(bucket_t)
的空間。那麼能夠肯定的是,方法緩存散列表每次分配內存都會放棄以前的緩存。
後面的賦值方法蠻有意思:
#define mega_barrier() \
__asm__ __volatile__( \
"dsb ish" \
: : : "memory")
void cache_t::setBucketsAndMask(struct bucket_t *newBuckets, mask_t newMask) {
mega_barrier();
_buckets = newBuckets;
mega_barrier();
_mask = newMask;
_occupied = 0;
}
複製代碼
由於拋棄了以前的緩存,因此_occupied
置爲 0。mega_barrier
這個內聯彙編使用__volatile__
關鍵字阻止編譯器緩存變量到寄存器不寫回,使用memory
內存屏障避免 CPU 使用寄存器來優化執行指令,使用dsb ish
隔離指令在它前面的存儲器訪問操做都執行完畢後,才執行在它後面的指令。這一個使盡渾身解數的宏是爲了幹嗎呢?
對於cache_t
來講,讀取_buckets
和_mask
都是沒有加鎖的,那麼就必定要保證_buckets
的實際長度始終大於_mask
,最壞的狀況不過只是訪問不到已有的緩存,否則在進行 hash 運算後極可能訪問到錯誤或非法的內存。
那麼第二個mega_barrier()
就是爲了保證新的_buckets
始終會在新的_mask
以前賦好值。固然這有個前提,就是新_buckets
的長度始終大於舊的。在cache_t
算法中並無削減_buckets
內存的邏輯,只有一個清空_buckets
數組每一個bucket
的key/imp
的邏輯(清空後內存爲 readonly),因此這個前提是能保證的。
在前面cache_fill_nolock
方法的if (cache->isConstantEmptyCache())
分支正是內存被清空後標記爲 readonly 的邏輯,從新分配內存時會開闢一個INIT_CACHE_SIZE
(8) 長度的空間,可能有讀者會疑問這個時候不就是新_buckets
的長度小於舊的麼?
其實否則,在清空_buckets
時雖然沒有削減內存,但_occupied
(有效緩存數量)會置爲 0,也就是說這種狀況下是不會有其它線程訪問的。
第一個mega_barrier()
就比較夢幻了,筆者可能理解有誤:
從newBuckets
指針開闢內存到賦值給_buckets
的模擬以下:
一、開闢堆內存(地址 0x111)
二、x0 = 0x111
三、_buckets = x0
複製代碼
因爲內存訪問比寄存器訪問慢,極可能被操做系統優化成這樣:
一、x0 = 0x111
二、_buckets = x0
三、開闢堆內存(地址 0x111)
複製代碼
那麼第三步執行以前_buckets
已經有值了,但這個內存仍是非法的,因此dsb
應該是起到了關鍵做用,讓第 2 部執行以前必須把開闢堆內存的操做執行完畢。
canBeFreed()
就是判斷這個舊的_buckets
是否是清理事後只讀的,若不是就能夠釋放(清理邏輯後面分析)。
釋放有兩步操做:
第一步cache_collect_free(oldBuckets, oldCapacity);
是將待釋放的oldBuckets
插入一個全局的二維數組:
static bucket_t **garbage_refs = 0;
複製代碼
具體的算法很少說了,反正就是garbage_refs
滿了時會以兩倍的容量擴容。
第二步cache_collect(false);
內部會判斷garbage_refs
的大小,若小於32*1024
什麼也不作。不然會進入一個循環判斷,若進程中沒有緩存的訪問操做才進行真正的內存釋放。
這麼作的目的應該也是爲了訪問安全,保證在對一塊cache_t
內存訪問時不會去釋放這塊內存。
能夠看出,爲了訪問cache_t
的成員變量時不加鎖,付出了很大的努力,可是對於這樣一個高頻訪問的緩存機制,這些努力都是值得的。
void cache_t::expand() {
...
uint32_t oldCapacity = capacity();
uint32_t newCapacity = oldCapacity ? oldCapacity*2 : INIT_CACHE_SIZE;
// 越界處理
if ((uint32_t)(mask_t)newCapacity != newCapacity) {
newCapacity = oldCapacity;
}
reallocate(oldCapacity, newCapacity);
}
複製代碼
cache_t
的_mask
成員變量是mask_t
類型的,定義爲:
#if __LP64__
typedef uint32_t mask_t; // x86_64 & arm64 asm are less efficient with 16-bits
#else
typedef uint16_t mask_t;
#endif
複製代碼
如註釋所說,64 位系統使用 32 位的整形效率較高。上面newCapacity
是使用uint32_t
運算的,因此若mask_t
是 16 位時可能越界,若越界就放棄擴容,只是調用reallocate
從新分配和以前等大的內存。
因爲以前分析分配內存方法reallocate
老是建立新的內存放棄舊的,因此每次擴容都會放棄舊的緩存。可能會擔憂放棄舊緩存致使消息發送效率降低,其實散列表容量是以兩倍的速度擴展的,初始也是 8 個,對於大部分類來講,拓展少量的幾回就夠了。
擴容時放棄以前的緩存能帶來另一個好處:不用把舊緩存依次按照 hash 算法寫入散列表(由於擴容後散列表的 mask (容量) 會變化,將直接影響 hash 值會被掩碼截取的對象,因此不得不使用 hash 算法從新插入全部對象)。
寫入操做的核心操做就是經過cache_t
的find
函數讀取一個可用的bucket_t
:
bucket_t * cache_t::find(cache_key_t k, id receiver) {
bucket_t *b = buckets();
mask_t m = mask();
mask_t begin = cache_hash(k, m);
mask_t i = begin;
do {
if (b[i].key() == 0 || b[i].key() == k) {
return &b[i];
}
} while ((i = cache_next(i, m)) != begin);
...
}
複製代碼
cache_hash
散列算法就是簡單的操做:(mask_t)(key & mask)
,而後直接到數組中找出bucket_t.key()
比較,若key
爲 0 或與目標一致就返回這個bucket_t
的地址。
當發生 hash 碰撞時,就使用cache_next
將 hash 值累加 1,以此輪詢直到找到空位。cache_next
代碼爲(i+1) & mask
,就算 hash 值累加到數組最大值還未找到空位,又會回到數組頭部繼續尋找。因爲在容量達到 3/4 時散列表就會擴容,因此這個find
操做是必然能找到空位的。
因爲bucket_t.key() == 0
表示這個bucket_t
爲空,因此在上層方法中有這樣一句代碼(_occupied++
):
if (bucket->key() == 0) cache->incrementOccupied();
複製代碼
調用objc_msgSend
或者cache_getImp
中都會調用CacheLookup
宏,它們的區別是調用時傳的參數不一樣:
objc_msgSend -> CacheLookup NORMAL
cache_getImp -> CacheLookup GETIMP
複製代碼
下面分析一下CacheLookup
的上半截核心代碼:
.macro CacheLookup
// p1 = SEL, p16 = isa
1 ldp p10, p11, [x16, #CACHE] // p10 = buckets, p11 = occupied|mask
#if !__LP64__
and w11, w11, 0xffff // p11 = mask
#endif
2 and w12, w1, w11 // x12 = _cmd & mask
3 add p12, p10, p12, LSL #(1+PTRSHIFT)
// p12 = buckets + ((_cmd & mask) << (1+PTRSHIFT))
4 ldp p17, p9, [x12] // {imp, sel} = *bucket
5 1: cmp p9, p1 // if (bucket->sel != _cmd)
6 b.ne 2f // scan more
7 CacheHit $0 // call or return imp
2: // not hit: p12 = not-hit bucket
8 CheckMiss $0 // miss if bucket->sel == 0
9 cmp p12, p10 // wrap if bucket == buckets
10 b.eq 3f
11 ldp p17, p9, [x12, #-BUCKET_SIZE]! // {imp, sel} = *--bucket
12 b 1b // loop
...
複製代碼
實際上註釋就已經把整個邏輯說明得比較明白了,下面筆者進行一些解釋讓讀者看起來更容易(注意起始的寄存器狀態p1 = SEL, p16 = isa
):
#define CACHE (2 * __SIZEOF_POINTER__)
,因此 64 位系統下CACHE == 64*2
,根據數據結構可知這正是objc_class
中cache
成員變量的偏移量,而cache_t
中的第一個 64 位就是_buckets
指針,mask_t
是 32 位,因此第二個 64 位就是_mask + _occupied
。x11
寄存器放的_mask + _occupied
,那w11
就是低 32 位_mask
,_cmd & mask
就是方法緩存散列表的 hash 算法,因此x12
如今就是 hash key 了。bucket_t
。PTRSHIFT
字面意思是指針偏移,雖然筆者沒有找到它的定義,但能夠試着推斷。因爲<< 1
就是翻一倍,那麼buckets + ((_cmd & mask) << (1+PTRSHIFT)
能夠轉化爲:buckets + ((_cmd & mask) * (2 的 1+PTRSHIFT 次方)
,一個bucket_t
128 位大小,那能夠推斷這個PTRSHIFT == 6
。咱們知道mask
是總長度 -1 的值,剛好適用於這裏的算法,因此這可能也是爲何存儲mask
要 -1 的一個緣由。x12
存了 hash key 對應的bucket_t
對象地址了,將bucket
的兩個成員變量分別取出,如今p17 -> imp / p9 -> sel
。p1
存的是目標SEL
,因此這裏是比較一下。2:
,即第 8 行。CacheHit
,CacheHit
根據$0
判斷,如果NORMAL
則調用IMP
;如果GETIMP
則返回IMP
。CheckMiss
檢查緩存是否丟失,其實就是看p9
(sel
) 是否爲 0。若爲 0 表示緩存丟失都會發生跳轉,CacheLookup
後面的彙編代碼也不會走了。當$0
是NORMAL
則調用前面分析過的__objc_msgSend_uncached
;當$0
是GETIMP
則跳轉到LGetImpMiss
,不要奇怪LGetImpMiss
是個啥,CacheLookup
和CheckMiss
都是宏,上層調用有可能就是cache_getImp
(跳到LGetImpMiss
就復位了):STATIC_ENTRY _cache_getImp
GetClassFromIsa_p16 p0
CacheLookup GETIMP
LGetImpMiss:
mov p0, #0 // 復位
ret
END_ENTRY _cache_getImp
複製代碼
p10
就是數組指針的頭部,與當前找到的bucket
比較。3f
(暫時無論實現,反正就是跳出 hash 算法查找)。#define BUCKET_SIZE (2 * __SIZEOF_POINTER__)
,bucket_t
正好兩個指針大,因此這裏就是進行了指針的移動,即向緩存數組前一個下標移動(有點奇怪,方法緩存寫入的時候出現 hash 衝突是 +1,這裏是 -1,不過老是能完整遍歷)。1b
,造成循環。CacheLookup
下半截作了些什麼3: // wrap: p12 = first bucket, w11 = mask
add p12, p12, w11, UXTW #(1+PTRSHIFT)
// p12 = buckets + (mask << 1+PTRSHIFT)
...(省略了循環邏輯)
複製代碼
將p12
指向散列表末尾,而後作了和前面同樣的向前遍歷查詢。
仔細看前面跳轉到3:
的指令,若到了這裏說明經過 hash key 找到的SEL
始終不爲 0,可是也不等於目標SEL
,也就是始終是 hash 衝突狀態,向前遍歷完散列表都沒有找到目標SEL
。
那麼,這部分會從散列表尾遍歷到散列表頭:
散列表頭 (上半截遍歷部分) hash key (未遍歷部分) 散列表尾
複製代碼
可能有讀者會以爲這個遍歷會重複查詢上半截代碼遍歷過的部分,實際上不會。因爲散列表會在滿 3/4 時就擴容,因此把3:
以前未遍歷的部分找完就確定能拿到緩存或者丟失(SEL == 目標
或SEL == 0
),那循環就會被打破。
緩存清理分兩種模式,一種是清理散列表的內容,而不是削減散列表的容量;一種是直接釋放整個散列表。
void cache_erase_nolock(Class cls) {
...
cache_t *cache = getCache(cls);
mask_t capacity = cache->capacity();
if (capacity > 0 && cache->occupied() > 0) {
auto oldBuckets = cache->buckets();
auto buckets = emptyBucketsForCapacity(capacity);
cache->setBucketsAndMask(buckets, capacity - 1); // also clears occupied
cache_collect_free(oldBuckets, capacity);
cache_collect(false);
}
}
複製代碼
主要是將舊的oldBuckets
釋放掉,而後經過emptyBucketsForCapacity
函數獲取新的容量相同的buckets
數組,這個方法獲取的數組在語言上沒有限制只讀,但須要把它理解爲只讀數組。
emptyBucketsForCapacity
的大體邏輯:
capacity
足夠小,返回一個和bucket_t *
大小相同的全局變量_objc_empty_cache
。static bucket_t **emptyBucketsList = nil;
獲取;若未找到,則初始化一個等大的空間,存儲進emptyBucketsList
,同時把中間空的數組填滿,便於 hash key 落在之間的對象獲取bucket_t
數組。還記得前面的cache->isConstantEmptyCache()
調用判斷緩存是否只讀麼?這個函數實際上就是調用了emptyBucketsForCapacity
判斷這個緩存數組是否屬於只讀數組。
爲何要作這麼複雜的邏輯來清空一個數組?其實在前面的散列表內存分配一節已經解釋了,就是爲了保證緩存散列表的讀安全。
搜索一下源碼,隨便列舉幾個須要調用這個清空方法的地方:
attachCategories
將 Category 信息同步到 Class 時。_method_setImplementation / method_exchangeImplementations
直接設置方法的實現或交換方法實現時。addMethod / addMethods
添加方法時。setSuperclass
設置父類時。須要清空的狀況一句話歸納:可能會致使緩存失效時。
cache_delete
先會經過isConstantEmptyCache
函數判斷數組內容是否爲只讀的,若不是隻讀則調用free
直接釋放。可能有讀者擔憂這個釋放會讓方法緩存的讀取變得不安全,實際上不會,由於筆者只看到free_class
時會調用。
方法緩存機制爲了極致的效率而不給讀取邏輯加鎖,爲了讓讀取安全作了不少額外複雜工做,不過帶來的收益是很大的,由於方法緩存讀取頻率極高。
objc_msgSend 的邏輯無疑是比較複雜的,涉及了很多彙編與操做系統的知識,不過按圖索驥分析起來也不是一件很困難的事,在這最後筆者不得不說一句:
iOS 太難了。