Read the fucking source code!
--By 魯迅A picture is worth a thousand words.
--By 高爾基說明:html
我會假設你已經看過了《Linux RCU原理剖析(一)-初窺門徑》node
本文將進一步去探索下RCU
背後的機制。數組
Grace Period
繼續貼出《Linux RCU原理剖析(一)-初窺門徑》
中的圖片:安全
Grace Period
,中文叫作寬限期,從Removal
到Reclamation
,中間就隔了一個寬限期;Quiescent Status
;Quiescent Status
),而且判斷寬限期是否結束。來一張圖:數據結構
Quiescent Status
Quiescent Status
,用於描述處理器的執行狀態。當某個CPU正在訪問RCU保護的臨界區時,認爲是活動的狀態,而當它離開了臨界區後,則認爲它是靜止的狀態。當全部的CPU都至少經歷過一次QS後,寬限期將結束並觸發回收工做。異步
用戶模式
或者idle模式
,則代表CPU離開了臨界區;cpumask
去記錄CPU經歷靜止狀態,在經典RCU(Classic RCU
)實現中,因爲使用了全局的cpumask
位圖,當CPU數量很大時鎖爭用會帶來很大開銷(GP開始時設置對應位,GP結束時清除對應位),所以也促成了Tree RCU
的誕生;Tree RCU
以樹形分層來組織CPU,將CPU分組,本小組的CPU爭用同一個鎖,當本小組的某個CPU經歷了一個靜止狀態QS後,將其對應的位從位圖清除,若是該小組最後一個CPU經歷完靜止狀態QS後,代表該小組所有經歷了CPU的QS狀態,那麼將上一層對應該組的位從位圖清除;struct rcu_state
,struct rcu_node
,struct rcu_data
;圖來了:ide
struct rcu_state
:用於描述RCU的全局狀態,它負責組織樹狀層級結構,系統中支持不一樣類型的RCU狀態:rcu_sched_state
, rcu_bh_state
,rcu_preempt_state
;struct rcu_node
:Tree RCU
中的組織節點;struct rcu_data
:用於描述處理器的RCU狀態,每一個CPU都維護一個數據,它歸屬於某一個struct rcu_node
,struct rcu_data
檢測靜止狀態並進行處理,對應的CPU進行RCU回調,__percpu
的定義也減小了同步的開銷;看到這種描述,若是仍是在懵逼的狀態,那麼再來一張拓撲圖,讓真相更白一點:函數
struct rcu_node
來組成,這些節點在struct rcu_state
結構中是放置在數組中的,因爲struct rcu_node
結構有父節點指針,所以能夠構造樹形;CPU0/CPU1
就不須要和CPU6/CPU7
去爭用鎖了,逐級以淘汰賽的形式向上;
關鍵點來了:Tree RCU使用rcu_node節點來構造層級結構,進而管理靜止狀態Quiescent State和寬限期Grace Period,靜止狀態信息QS是從每一個CPU的rcu_data往上傳遞到根節點的,而寬限期GP信息是經過根節點從上往下傳遞的,當每一個CPU經歷過一次QS狀態後,寬限期結束
工具
關鍵字段仍是有必要介紹一下的,不然豈不是耍流氓?性能
struct rcu_state { struct rcu_node node[NUM_RCU_NODES]; // rcu_node節點數組,組織成層級樹狀 struct rcu_node *level[RCU_NUM_LVLS + 1]; //指向每層的首個rcu_node節點,數組加1是爲了消除編譯告警 struct rcu_data __percpu *rda; //指向每一個CPU的rcu_data實例 call_rcu_func_t call; //指向特定RCU類型的call_rcu函數:call_rcu_sched, call_rcu_bh等 int ncpus; // 處理器數量 unsigned long gpnum; //當前寬限期編號,gpnum > completed,代表正處在寬限期內 unsigned long completed; //上一個結束的寬限期編號,若是與gpnum相等,代表RCU空閒 ... unsigned long gp_max; //最長的寬限期時間,jiffies ... } /* * Definition for node within the RCU grace-period-detection hierarchy. */ struct rcu_node { raw_spinlock_t __private lock; //保護本節點的自旋鎖 unsigned long gpnum; //本節點寬限期編號,等於或小於根節點的gpnum unsigned long completed; //本節點上一個結束的寬限期編號,等於或小於根節點的completed unsigned long qsmask; //QS狀態位圖,某位爲1,表明對應的成員沒有經歷QS狀態 unsigned long qsmaskinit; //正常寬限期開始時,QS狀態的初始值 ... int grplo; //該分組的CPU最小編號 int grphi; //該分組的CPU最大編號 u8 grpnum; //該分組在上一層分組裏的編號 u8 level; //在樹中的層級,Root爲0 ... struct rcu_node *parent; //指向父節點 } /* Per-CPU data for read-copy update. */ struct rcu_data { unsigned long completed; //本CPU看到的已結束的寬限期編號 unsigned long gpnum; //本CPU看到的最高寬限期編號 union rcu_noqs cpu_no_qs; //記錄本CPU是否經歷QS狀態 bool core_need_qs; //RCU須要本CPU上報QS狀態 unsigned long grpmask; //本CPU在分組的位圖中的掩碼 struct rcu_segcblist; //回調函數鏈表,用於存放call_rcu註冊的延後執行的回調函數 ... }
從《Linux RCU原理剖析(一)-初窺門徑》的示例中,咱們看到了RCU的寫端調用了synchronize_rcu/call_rcu
兩種類型的接口,事實上Linux內核提供了三種不一樣類型的RCU,所以也對應了相應形式的接口。
來張圖:
RCU
寫者,能夠經過兩種方式來等待寬限期的結束,一種是調用同步接口等待寬限期結束,一種是異步接口等待寬限期結束後再進行回調處理,分別如上圖的左右兩側所示;wait_for_completion
睡眠等待操做,而且會將wakeme_after_rcu
回調函數傳遞給異步接口,當寬限期結束後,在異步接口中回調了wakeme_after_rcu
進行喚醒處理;rcu_read_lock/rcu_read_unlock
來界定區域,在讀端臨界區能夠被其餘進程搶佔;(RCU-sched)
:rcu_read_lock_sched/rcu_read_unlock_sched
來界定區域,在讀端臨界區不容許其餘進程搶佔;(RCU-bh)
:rcu_read_lock_bh/rcu_read_unlock_bh
來界定區域,在讀端臨界區禁止軟中斷;__call_rcu
接口,它是接口實現的關鍵,因此接下來分析下這個函數了;__call_rcu
函數的調用流程以下:
__call_rcu
函數,第一個功能是註冊回調函數,而回調的函數的維護是在rcu_data
結構中的struct rcu_segcblist cblist
字段中;rcu_accelerate_cbs/rcu_advance_cbs
,實現中都是經過操做struct rcu_segcblist
結構,來完成回調函數的移動處理等;__call_rcu
函數第二個功能是判斷是否須要開啓新的寬限期GP;鏈表的維護關係以下圖所示:
那麼經過__call_rcu
註冊的這些回調函數在哪裏調用呢?答案是在RCU_SOFTIRQ
軟中斷中:
invoke_rcu_core
時,在該函數中調用raise_softirq
接口,從而觸發軟中斷回調函數rcu_process_callbacks
的執行;rcu_process_callbacks
中會調用rcu_gp_kthread_wake
喚醒內核線程,最終會在rcu_gp_kthread
線程中執行;rcu_do_batch
函數中執行,其中有兩種執行方式:1)若是不支持優先級繼承的話,直接調用便可;2)支持優先級繼承,在把回調的工做放置在rcu_cpu_kthread
內核線程中,其中內核爲每一個CPU都建立了一個rcu_cpu_kthread
內核線程;既然涉及到寬限期GP的操做,都放到了rcu_gp_kthread
內核線程中了,那麼來看看這個內核線程的邏輯操做吧:
rcu_preempt_state, rcu_bh_state, rcu_sched_state
建立了內核線程rcu_gp_kthread
;rcu_gp_kthread
內核線程主要完成三個工做:1)建立新的寬限期GP;2)等待強制靜止狀態,設置超時,提早喚醒說明全部處理器通過了靜止狀態;3)寬限期結束處理。其中,前邊兩個操做都是經過睡眠等待在某個條件上。很顯然,對這種狀態的檢測一般都是週期性的進行,放置在時鐘中斷處理中就是情理之中了:
rcu_sched/rcu_bh
類型的RCU中,當檢測CPU處於用戶模式或處於idle
線程中,說明當前CPU已經離開了臨界區,經歷了一個QS靜止狀態,對於rcu_bh
的RCU,若是沒有出去softirq
上下文中,也代表CPU經歷了QS靜止狀態;rcu_pending
知足條件的狀況下,觸發軟中斷的執行,rcu_process_callbacks
將會被調用;rcu_process_callbacks
回調函數中,對寬限期進行判斷,並對靜止狀態逐級上報,若是整個樹狀結構都經歷了靜止狀態,那就代表了寬限期的結束,從而喚醒內核線程去處理;rcu_pending
函數中,rcu_pending->__rcu_pending->check_cpu_stall->print_cpu_stall
的流程中,會去判斷是否有CPU stall的問題,這個在內核中有文檔專門來描述,再也不分析了;若是要觀察整個狀態機的變化,跟蹤一下trace_rcu_grace_period
接口的記錄就能發現:
/* * Tracepoint for grace-period events. Takes a string identifying the * RCU flavor, the grace-period number, and a string identifying the * grace-period-related event as follows: * * "AccReadyCB": CPU acclerates new callbacks to RCU_NEXT_READY_TAIL. * "AccWaitCB": CPU accelerates new callbacks to RCU_WAIT_TAIL. * "newreq": Request a new grace period. * "start": Start a grace period. * "cpustart": CPU first notices a grace-period start. * "cpuqs": CPU passes through a quiescent state. * "cpuonl": CPU comes online. * "cpuofl": CPU goes offline. * "reqwait": GP kthread sleeps waiting for grace-period request. * "reqwaitsig": GP kthread awakened by signal from reqwait state. * "fqswait": GP kthread waiting until time to force quiescent states. * "fqsstart": GP kthread starts forcing quiescent states. * "fqsend": GP kthread done forcing quiescent states. * "fqswaitsig": GP kthread awakened by signal from fqswait state. * "end": End a grace period. * "cpuend": CPU first notices a grace-period end. */
大致流程以下:
RCU_SOFTIRQ
和內核線程rcu_gp_kthread
的動態運行及交互等;rcu_state, rcu_node, rcu_data
組織成樹狀結構來維護,此外回調函數是經過rcu_data
中的分段鏈表來批處理,至於這些結構中相關字段的處理(好比gpnum, completed
字段的設置來判斷寬限期階段等),以及鏈表的節點移動等,都沒有進一步去分析跟進了;漸入佳境篇
就此打住,是否還會有登堂入室篇
呢?想啥呢,歇歇吧。
Verification of the Tree-Based Hierarchical Read-Copy Update in the Linux Kernel
Documentation/RCU
What is RCU, Fundamentally?
What is RCU? Part 2: Usage
RCU part 3: the RCU API
Introduction to RCU
歡迎關注公衆號: