Read the fucking source code!
--By 魯迅A picture is worth a thousand words.
--By 高爾基說明:數組
組調度(task_group
)是使用Linux cgroup(control group)
的cpu子系統來實現的,能夠將進程進行分組,按組來分配CPU資源等。
好比,看一個實際的例子:
A和B兩個用戶使用同一臺機器,A用戶16個進程,B用戶2個進程,若是按照進程的個數來分配CPU資源,顯然A用戶會佔據大量的CPU時間,這對於B用戶是不公平的。組調度就能夠解決這個問題,分別將A、B用戶進程劃分紅組,並將兩組的權重設置成佔比50%便可。數據結構
帶寬(bandwidth
)控制,是用於控制用戶組(task_group
)的CPU帶寬,經過設置每一個用戶組的限額值,能夠調整CPU的調度分配。在給定週期內,當用戶組消耗CPU的時間超過了限額值,該用戶組內的任務將會受到限制。函數
因爲組調度和帶寬控制緊密聯繫,所以本文將探討這兩個主題,本文的討論都基於CFS調度器,開始吧。工具
struct task_group
來組織的,task_group
自己支持cfs組調度
和rt組調度
,本文主要分析cfs組調度
。sched_entity
調度實體,task_struct(表明進程)
和task_group(表明進程組)
中分別包含sched_entity
,進而來參與調度;關於組調度的相關數據結構,組織以下:3d
task_groups
,建立的task_group
會添加到這個鏈表中;root_task_group
全局結構,充當task_group
的根節點,以它爲根構建樹狀結構;struct task_group
的子節點,會加入到父節點的siblings
鏈表中;struct task_group
會分配運行隊列數組和調度實體數組(以CFS爲例,RT調度相似),其中數組的個數爲系統CPU的個數,也就是爲每一個CPU都分配了運行隊列和調度實體;對應到實際的運行中,以下:指針
struct cfs_rq
包含了紅黑樹結構,sched_entity
調度實體參與調度時,都會掛入到紅黑樹中,task_struct
和task_group
都屬於被調度對象;task_group
會爲每一個CPU再維護一個cfs_rq
,這個cfs_rq
用於組織掛在這個任務組上的任務以及子任務組,參考圖中的Group A
;pick_next_task_fair
時,會從遍歷隊列,選擇sched_entity
,若是發現sched_entity
對應的是task_group
,則會繼續往下選擇;sched_entity
結構中存在parent
指針,指向它的父結構,所以,系統的運行也能從下而上的進行遍歷操做,一般使用函數walk_tg_tree_from
進行遍歷;/sys
文件系統進行設置,好比操做/sys/fs/cgoup/cpu/A/shares
;調用流程以下圖:code
sched_group_set_shares
來完成最終的設置;task_group
爲每一個CPU都分配了一個sched_entity
,針對當前sched_entity
設置更新完後,往上對sched_entity->parent
設置更新,直到根節點;shares
的值計算與load
相關,所以也須要調用update_load_avg
進行更新計算;看一下實際的效果圖吧:對象
echo XXX > /sys/fs/cgroup/cpu/A/B/cpu.shares
;sched_entity
後,繼續按一樣的流程處理sched_entity->parent
;先看一下/sys/fs/cgroup/cpu
下的內容吧:blog
cfs_period_us
和cfs_quota_us
,這兩個與cfs_bandwidth息息相關;period
表示週期,quota
表示限額,也就是在period
期間內,用戶組的CPU限額爲quota
值,當超過這個值的時候,用戶組將會被限制運行(throttle
),等到下一個週期開始被解除限制(unthrottle
);來一張圖直觀理解一下:隊列
quota
的配額下,超過了就throttle
,下一個週期從新開始;內核中使用struct cfs_bandwidth
來描述帶寬,該結構包含在struct task_group
中。
此外,struct cfs_rq
中也有與帶寬控制相關的字段。
仍是來看一下代碼吧:
struct cfs_bandwidth { #ifdef CONFIG_CFS_BANDWIDTH raw_spinlock_t lock; ktime_t period; u64 quota, runtime; s64 hierarchical_quota; u64 runtime_expires; int idle, period_active; struct hrtimer period_timer, slack_timer; struct list_head throttled_cfs_rq; /* statistics */ int nr_periods, nr_throttled; u64 throttled_time; #endif };
struct cfs_rq
結構中相關字段以下:
struct cfs_rq { ... #ifdef CONFIG_CFS_BANDWIDTH int runtime_enabled; u64 runtime_expires; s64 runtime_remaining; u64 throttled_clock, throttled_clock_task; u64 throttled_clock_task_time; int throttled, throttle_count; struct list_head throttled_list; #endif /* CONFIG_CFS_BANDWIDTH */ ... }
先看一下初始化的操做,初始化函數init_cfs_bandwidth
自己比較簡單,完成的工做就是將struct cfs_bandwidth
結構體進程初始化。
period_timer
和slack_timer
;period_timer
定時器,用於在時間到期時從新填充關聯的任務組的限額,並在適當的時候unthrottle
cfs運行隊列;slack_timer
定時器,slack_period
週期默認爲5ms,在該定時器函數中也會調用distribute_cfs_runtime
從全局運行時間中分配runtime;start_cfs_bandwidth
和start_cfs_slack_bandwidth
分別用於啓動定時器運行,其中能夠看出在dequeue_entity
的時候會去利用slack_timer
,將運行隊列的剩餘時間返回給tg->cfs_b
這個runtime pool
;unthrottle_cfs_rq
函數,會將throttled_list
中的對應cfs_rq
刪除,而且從下往上遍歷任務組,針對每一個任務組調用tg_unthrottle_up
處理,最後也會根據cfs_rq
對應的sched_entity
從下往上遍歷處理,若是sched_entity
不在運行隊列上,那就從新enqueue_entity
以便參與調度運行,這個也就完成了解除限制的操做;do_sched_cfs_period_timer
函數與do_sched_cfs_slack_timer()
函數都調用了distrbute_cfs_runtime()
,該函數用於分發tg->cfs_b
的全局運行時間runtime
,用於在該task_group
中平衡各個CPU上的cfs_rq
的運行時間runtime
,來一張示意圖:
task_group
針對每一個cpu都維護了一個cfs_rq
,這些cfs_rq
來共享該task_group
的限額運行時間;用戶能夠經過操做/sys
中的節點來進行設置:
/sys/fs/cgroup/cpu/
下的cfs_quota_us/cfs_period_us
節點,最終會調用到tg_set_cfs_bandwidth
函數;tg_set_cfs_bandwidth
會從root_task_group
根節點開始,遍歷組調度樹,並逐個設置限額比率 ;cfs_bandwidth
的runtime
信息;cfs_bandwidth
功能,則啓動帶寬定時器;task_group
中的每一個cfs_rq
隊列,設置runtime_remaining
值,若是cfs_rq
隊列限流了,則須要進行解除限流操做;throttle
限流操做cfs_rq
運行隊列被限制,是在throttle_cfs_rq
函數中實現的,其中調用關係以下圖:
sched_entity
入列時,進行檢測是否運行時間已經達到限額,達到則進行限制處理;pick_next_task_fair/put_prev_task_fair
在選擇任務調度時,也須要進行檢測判斷;整體來講,帶寬控制的原理就是經過task_group
中的cfs_bandwidth
來管理一個全局的時間池,分配給屬於這個任務組的運行隊列,當超過限額的時候則限制隊列的調度。同時,cfs_bandwidth
維護兩個定時器,一個用於週期性的填充限額並進行時間分發處理,一個用於將未用完的時間再返回到時間池中,大抵如此。
組調度和帶寬控制就先分析到此,下篇文章將分析CFS調度器
了,敬請期待。