Scheduler中在進行node選舉的時候會首先進行一輪預選流程,即從當前集羣中選擇一批node節點,本文主要分析k8s在預選流程上一些優秀的篩選設計思想,歡迎大佬們指正node
預選顧名思義就是從當前集羣中的全部的node中,選擇出知足當前pod資源和親和性等需求的node節點,如何在集羣中快速選擇這樣的節點,是個複雜的問題算法
平均分佈主要是經過讓一個分配索引來進行即只有當全部的node都在本輪分配週期內分配一次後,纔開始從頭進行分配,從而保證集羣的平均分佈api
預選終端即在預選的過程當中若是發現node已經不能知足當前pod資源需求的時候,就進行中斷預選流程,嘗試下一個節點微信
在當前k8s版本中,默認會啓動16個goroutine來進行並行的預選,從而提升性能,從而提升預選的性能app
預選流程須要從當前集羣中選擇一臺符合要求的node隨着集羣規模的增加,若是每次遍歷全部集羣node則會必然致使性能的降低,因而經過局部最優解的方式,縮小篩選節點的數量ide
預選的核心流程是經過findNodesThatFit來完成,其返回預選結果供優選流程使用函數
取樣是經過當前集羣中的node數量和默認的最小值來決定本次預選階段須要獲取的node節點數量源碼分析
// 獲取全部的節點數量,並經過計算百分比,獲取本次選舉選擇的節點數量
allNodes := int32(g.cache.NodeTree().NumNodes())
// 肯定要查找node數量
numNodesToFind := g.numFeasibleNodesToFind(allNodes)複製代碼
取樣算法很簡單從集羣中獲取指定百分比的節點默認是50%,若是50%的節點數量小於minFeasibleNodesToFind則按照minFeasibleNodesToFind(最小取樣節點數量)來取樣,性能
func (g *genericScheduler) numFeasibleNodesToFind(numAllNodes int32) (numNodes int32) {
// 若是當前節點數量小於minFeasibleNodesToFind即小於100臺node
// 同理百分好比果大於100就是全量取樣
// 這兩種狀況都直接遍歷整個集羣中全部節點
if numAllNodes < minFeasibleNodesToFind || g.percentageOfNodesToScore >= 100 {
return numAllNodes
}
adaptivePercentage := g.percentageOfNodesToScore
if adaptivePercentage <= 0 {
adaptivePercentage = schedulerapi.DefaultPercentageOfNodesToScore - numAllNodes/125
if adaptivePercentage < minFeasibleNodesPercentageToFind {
adaptivePercentage = minFeasibleNodesPercentageToFind
}
}
// 正常取樣計算:好比numAllNodes爲5000,而adaptivePercentage爲50%
// 則numNodes=50000*0.5/100=250
numNodes = numAllNodes * adaptivePercentage / 100
if numNodes < minFeasibleNodesToFind { // 若是小於最少取樣則按照最少取樣進行取樣
return minFeasibleNodesToFind
}
return numNodes
}複製代碼
經過filtered來進行預選結果的存儲,經過filteredLen來進行原子保護協做多個取樣goroutine, 並經過predicateMetaProducer和當前的snapshot來進行元數據構建ui
filtered = make([]*v1.Node, numNodesToFind)
errs := errors.MessageCountMap{}
var (
predicateResultLock sync.Mutex
filteredLen int32
)
ctx, cancel := context.WithCancel(context.Background())
// We can use the same metadata producer for all nodes.
meta := g.predicateMetaProducer(pod, g.nodeInfoSnapshot.NodeInfoMap)複製代碼
並行取樣主要經過調用下面的函數來啓動16個goroutine來進行並行取樣,並經過ctx來協調退出
workqueue.ParallelizeUntil(ctx, 16, int(allNodes), checkNode)複製代碼
經過channel來構建取樣索引的管道,每一個worker會負責從channel獲取的指定索引取樣node的填充
func ParallelizeUntil(ctx context.Context, workers, pieces int, doWorkPiece DoWorkPieceFunc) {
var stop <-chan struct{}
if ctx != nil {
stop = ctx.Done()
}
// 生成指定數量索引,worker經過索引來進行預選成功節點的存儲
toProcess := make(chan int, pieces)
for i := 0; i < pieces; i++ {
toProcess <- i
}
close(toProcess)
if pieces < workers {
workers = pieces
}
wg := sync.WaitGroup{}
wg.Add(workers)
for i := 0; i < workers; i++ {
// 啓動多個goroutine
go func() {
defer utilruntime.HandleCrash()
defer wg.Done()
for piece := range toProcess {
select {
case <-stop:
return
default:
//獲取索引,後續會經過該索引來進行結果的存儲
doWorkPiece(piece)
}
}
}()
}
// 等待退出
wg.Wait()
}複製代碼
checkNode := func(i int) {
// 獲取一個節點
nodeName := g.cache.NodeTree().Next()
// 取樣核心流程是經過podFitsOnNode來肯定
fits, failedPredicates, status, err := g.podFitsOnNode(
pluginContext,
pod,
meta,
g.nodeInfoSnapshot.NodeInfoMap[nodeName],
g.predicates, // 傳遞預選算法
g.schedulingQueue,
g.alwaysCheckAllPredicates,
)
if err != nil {
predicateResultLock.Lock()
errs[err.Error()]++
predicateResultLock.Unlock()
return
}
if fits {
// 若是當前以及查找到的數量大於預選的數量,就退出
length := atomic.AddInt32(&filteredLen, 1)
if length > numNodesToFind {
cancel()
atomic.AddInt32(&filteredLen, -1)
} else {
filtered[length-1] = g.nodeInfoSnapshot.NodeInfoMap[nodeName].Node()
}
} else {
// 進行錯誤狀態的保存
predicateResultLock.Lock()
if !status.IsSuccess() {
filteredNodesStatuses[nodeName] = status
}
if len(failedPredicates) != 0 {
failedPredicateMap[nodeName] = failedPredicates
}
predicateResultLock.Unlock()
}
}複製代碼
在kubernetes中通過調度器調度後的pod結果會放入到SchedulingQueue中進行暫存,這些pod將來可能會通過後續調度流程運行在提議的node上,也可能由於某些緣由致使最終沒有運行,而預選流程爲了減小後續由於調度衝突(好比pod之間的親和性等問題,而且當前pod不能搶佔這些pod),則會在進行預選的時候,將這部分pod考慮進去
若是在這些pod存在的狀況下,node能夠知足當前pod的篩選條件,則能夠去除被提議的pod再進行篩選(若是這些提議的pod最終沒有調度到node,則當前node也須要知足各類親和性的需求)
結合上面說的面向將來的篩選,經過兩輪篩選在不管那些優先級高的pod是否被調度到當前node上,均可以知足pod的調度需求,在調度的流程中只須要獲取以前註冊的調度算法,完成預選檢測,若是發現有條件不經過則不會進行第二輪篩選,繼續選擇下一個節點
func (g *genericScheduler) podFitsOnNode(
pluginContext *framework.PluginContext,
pod *v1.Pod,
meta predicates.PredicateMetadata,
info *schedulernodeinfo.NodeInfo,
predicateFuncs map[string]predicates.FitPredicate,
queue internalqueue.SchedulingQueue,
alwaysCheckAllPredicates bool,
) (bool, []predicates.PredicateFailureReason, *framework.Status, error) {
var failedPredicates []predicates.PredicateFailureReason
var status *framework.Status
// podsAdded主要用於標識當前是否有提議的pod若是沒有提議的pod則就不須要再進行一輪篩選了
podsAdded := false
for i := 0; i < 2; i++ {
metaToUse := meta
nodeInfoToUse := info
if i == 0 {
// 首先獲取那些提議的pod進行第一輪篩選, 若是第一輪篩選出錯,則不會進行第二輪篩選
podsAdded, metaToUse, nodeInfoToUse = addNominatedPods(pod, meta, info, queue)
} else if !podsAdded || len(failedPredicates) != 0 {
// 若是
break
}
for _, predicateKey := range predicates.Ordering() {
var (
fit bool
reasons []predicates.PredicateFailureReason
err error
)
//TODO (yastij) : compute average predicate restrictiveness to export it as Prometheus metric
if predicate, exist := predicateFuncs[predicateKey]; exist {
// 預選算法計算
fit, reasons, err = predicate(pod, metaToUse, nodeInfoToUse)
if err != nil {
return false, []predicates.PredicateFailureReason{}, nil, err
}
if !fit {
// eCache is available and valid, and predicates result is unfit, record the fail reasons
failedPredicates = append(failedPredicates, reasons...)
// if alwaysCheckAllPredicates is false, short circuit all predicates when one predicate fails.
if !alwaysCheckAllPredicates {
klog.V(5).Infoln("since alwaysCheckAllPredicates has not been set, the predicate " +
"evaluation is short circuited and there are chances " +
"of other predicates failing as well.")
break
}
}
}
}
status = g.framework.RunFilterPlugins(pluginContext, pod, info.Node().Name)
if !status.IsSuccess() && !status.IsUnschedulable() {
return false, failedPredicates, status, status.AsError()
}
}
return len(failedPredicates) == 0 && status.IsSuccess(), failedPredicates, status, nil
}複製代碼
微信號:baxiaoshi2020
關注公告號閱讀更多源碼分析文章
更多文章關注 www.sreguide.com
本文由博客一文多發平臺 OpenWrite 發佈