Android Native 內存泄漏系統化解決方案

導讀:C++內存泄漏問題的分析、定位一直是Android平臺上困擾開發人員的難題。由於地圖渲染、導航等核心功能對性能要求很高,高德地圖APP中存在大量的C++代碼。解決這個問題對於產品質量尤其重要和關鍵,高德地圖技術團隊在實踐中造成了一套本身的解決方案。shell

 

分析和定位內存泄漏問題的核心在於分配函數的統計和棧回溯。若是隻知道內存分配點不知道調用棧會使問題變得格外複雜,增長解決成本,所以二者缺一不可。數組

 

Android中Bionic的malloc_debug模塊對內存分配函數的監控及統計是比較完善的,可是棧回溯在Android體系下缺少高效的方式。隨着Android的發展,Google也提供了棧回溯的一些分析方法,可是這些方案存在下面幾個問題:安全

 

1.棧回溯的環節都使用的libunwind,這種獲取方式消耗較大,在Native代碼較多的狀況下,頻繁調用會致使應用很卡,而監控全部內存操做函數的調用棧正須要高頻的調用libunwind的相關功能。數據結構

 

2.有ROM要求限制,給平常開發測試帶來不便。多線程

 

3.用命令行或者DDMS進行操做,每排查一次需準備一次環境,手動操做,最終結果也不夠直觀,同時缺乏對比分析。併發

 

所以,如何進行高效的棧回溯、搭建系統化的Android Native內存分析體系顯得格外重要。ionic

 

高德地圖基於這兩點作了一些改進和擴展,通過這些改進,經過自動化測試可及時發現並解決這些問題,大幅提高開發效率,下降問題排查成本。函數

1、棧回溯加速工具

Android平臺上主要採用libunwind來進行棧回溯,能夠知足絕大多數狀況。可是libunwind實現中的全局鎖及unwind table解析,會有性能損耗,在多線程頻繁調用狀況下會致使應用變卡,沒法使用。性能

 

加速原理

編譯器的-finstrument-functions編譯選項支持編譯期在函數開始和結尾插入自定義函數,在每一個函數開始插入對__cyg_profile_func_enter的調用,在結尾插入對__cyg_profile_func_exit的調用。這兩個函數中能夠獲取到調用點地址,經過對這些地址的記錄就能夠隨時獲取函數調用棧了。

 

插樁後效果示例:

這裏須要格外注意,某些不須要插樁的函數可使用__attribute__((no_instrument_function))來向編譯器聲明。

 

如何記錄這些調用信息?咱們想要實現這些信息在不一樣的線程之間讀取,並且不受影響。一種辦法是採用線程的同步機制,好比在這個變量的讀寫之處加臨界區或者互斥量,可是這樣又會影響效率了。

 

能不能不加鎖?這時就想到了線程本地存儲,簡稱TLS。TLS是一個專用存儲區域,只能由本身線程訪問,同時不存在線程安全問題,符合這裏的場景。

 

因而採用編譯器插樁記錄調用棧,並將其存儲在線程局部存儲中的方案來實現棧回溯加速。具體實現以下:

 

1.利用編譯器的-finstrument-functions編譯選項在編譯階段插入相關代碼。

 

2.TLS中對調用地址的記錄採用數組+遊標的形式,實現最快速度的插入、刪除及獲取。

 

定義數組+遊標的數據結構:

typedef struct {
    void* stack[MAX_TRACE_DEEP];
    int current;
} thread_stack_t;

初始化TLS中thread_stack_t的存儲key:

static pthread_once_t sBackTraceOnce = PTHREAD_ONCE_INIT;

static void __attribute__((no_instrument_function))
destructor(void* ptr) {
    if (ptr) {
        free(ptr);
    }
}

static void __attribute__((no_instrument_function))
init_once(void) {
    pthread_key_create(&sBackTraceKey, destructor);
}

初始化thread_stack_t放入TLS中:

get_backtrace_info() {
    thread_stack_t* ptr = (thread_stack_t*) pthread_getspecific(sBackTraceKey);
    if (ptr)
        return ptr;

    ptr = (thread_stack_t*)malloc(sizeof(thread_stack_t));
    ptr->current = MAX_TRACE_DEEP - 1;
    pthread_setspecific(sBackTraceKey, ptr);
    return ptr;
}

3.實現__cyg_profile_func_enter和__cyg_profile_func_exit,記錄調用地址到TLS中。

void __attribute__((no_instrument_function))
__cyg_profile_func_enter(void* this_func, void* call_site) {
    pthread_once(&sBackTraceOnce, init_once);
    thread_stack_t* ptr = get_backtrace_info();
    if (ptr->current > 0)
        ptr->stack[ptr->current--] = (void*)((long)call_site - 4);
}

void __attribute__((no_instrument_function))
__cyg_profile_func_exit(void* this_func, void* call_site) {
    pthread_once(&sBackTraceOnce, init_once);
    thread_stack_t* ptr = get_backtrace_info();
    if (++ptr->current >= MAX_TRACE_DEEP)
        ptr->current = MAX_TRACE_DEEP - 1;
}
} 

__cyg_profile_func_enter的第二個參數call_site就是調用點的代碼段地址,函數進入的時候將它記錄到已經在TLS中分配好的數組中,遊標ptr->current左移,待函數退出遊標ptr->current右移便可。

 

邏輯示意圖:

 

記錄方向和數組增加方向不一致是爲了對外提供的獲取棧信息接口更簡潔高效,能夠直接進行內存copy以獲取最近調用點的地址在前、最遠調用點的地址在後的調用棧。

 

4.提供接口獲取棧信息。

get_tls_backtrace(void** backtrace, int max) {
    pthread_once(&sBackTraceOnce, init_once);
    int count = max;
    thread_stack_t* ptr = get_backtrace_info();
    if (MAX_TRACE_DEEP - 1 - ptr->current < count) {
        count = MAX_TRACE_DEEP - 1 - ptr->current;
    }
    if (count > 0) {
        memcpy(backtrace, &ptr->stack[ptr->current + 1], sizeof(void *) * count);
    }
    return count;
}

5.將上面邏輯編譯爲動態庫,其餘業務模塊都依賴於該動態庫編譯,同時編譯flag中添加-finstrument-functions進行插樁,進而全部函數的調用都被記錄在TLS中了,使用者能夠在任何地方調用get_tls_backtrace(void** backtrace, int max)來獲取調用棧。

 

效果對比(採用Google的benchmark作性能測試,手機型號:華爲暢想5S,5.1系統):

  • libunwind單線程

 

  • TLS方式單線程獲取

 

  • libunwind 10個線程

 

  • TLS方式 10個線程

 

從上面幾個統計圖能夠看出單線程模式下該方式是libunwind棧獲取速度的10倍,10個線程狀況下是libunwind棧獲取速度的50-60倍,速度大幅提高。

 

優缺點

  • 優勢: 速度大幅提高,知足更頻繁棧回溯的速度需求。
  • 缺點: 編譯器插樁,體積變大,不能直接做爲線上產品使用,只用於內存測試包。這個問題能夠經過持續集成的手段解決,每次項目出庫將C++項目產出普通庫及對應的內存測試庫。

2、體系化

通過以上步驟能夠解決獲取內存分配棧慢的痛點問題,再結合Google提供的工具,如DDMS、adb shell am dumpheap -n pid /data/local/tmp/heap.txt 命令等方式能夠實現Native內存泄漏問題的排查,不過排查效率較低,須要必定的手機環境準備。

 

因而,咱們決定搭建一整套體系化系統,能夠更便捷的解決此類問題,下面介紹下總體思路:

 

  • 內存監控沿用LIBC的malloc_debug模塊。不使用官方方式開啓該功能,比較麻煩,不利於自動化測試,能夠編譯一份放到本身的項目中,hook全部內存函數,跳轉到malloc_debug的監控函數leak_xxx執行,這樣malloc_debug就監控了全部的內存申請/釋放,並進行了相應統計。
  • 用get_tls_backtrace實現malloc_debug模塊中用到的__LIBC_HIDDEN__ int32_t get_backtrace_external(uintptr_t* frames, size_t max_depth),恰好同上面說的棧回溯加速方式結合。
  • 創建Socket通訊,支持外部程序經由Socket進行數據交換,以便更方便獲取內存數據。
  • 搭建Web端,獲取到內存數據上傳後能夠被解析顯示,這裏要將地址用addr2line進行反解。
  • 編寫測試Case,同自動化測試結合。測試開始時經過Socket收集內存信息並存儲,測試結束將信息上傳至平臺解析,併發送評估郵件。碰到有問題的報警,研發同窗就能夠直接在Web端經過內存曲線及調用棧信息來排查問題了。

 

系統效果示例:

 

關注高德技術,找到更多出行技術領域專業內容

相關文章
相關標籤/搜索