- 在 /etc/nova/nova.conf 中,nova 經過 scheduler_driver,scheduler_available_filters 和 scheduler_default_filters 這三個參數來配置 nova-scheduler。
|
|
- scheduler_driver
- Filter scheduler 是 nova-scheduler 默認的調度器,調度過程分爲兩步
- 經過過濾器(filter)選擇知足條件的計算節點(運行 nova-compute)
- 經過權重計算(weighting)選擇在最優(權重值最大)的計算節點上建立 Instance
|
scheduler_driver=nova.scheduler.filter_scheduler.FilterScheduler
|
|
|
- Nova 容許使用第三方 scheduler,配置 scheduler_driver 便可。
- Scheduler 能夠使用多個 filter 依次進行過濾,過濾以後的節點再經過計算權重選出最適合的節點。
|
 上圖是調度過程的一個示例: 1.最開始有 6 個計算節點 Host1-Host6 2.經過多個 filter 層層過濾,Host2 和 Host4 沒有經過,被刷掉了3.Host1,Host3,Host5,Host6 計算權重,結果 Host5 得分最高,最終入選 |
- scheduler_available_filters
- 當 Filter scheduler 須要執行調度操做時,會讓 filter 對計算節點進行判斷,filter 返回 True 或 False
- Nova.conf 中的 scheduler_available_filters 選項用於配置 scheduler 可用的 filter,默認是全部 nova 自帶的 filter 均可以用於過濾操做
|
scheduler_available_filters = nova.scheduler.filters.all_filters
|
|
|
- scheduler_default_filters
- 用於指定 scheduler 真正使用的 filter
|
scheduler_default_filters = RetryFilter, AvailabilityZoneFilter, RamFilter,
DiskFilter, ComputeFilter, ComputeCapabilitiesFilter, ImagePropertiesFilter,
ServerGroupAntiAffinityFilter, ServerGroupAffinityFilter
|
|
|
- RetryFilter
- 做用是刷掉以前已經調度過的節點
- 舉個例子: 假設 A,B,C 三個節點都經過了過濾,最終 A 由於權重值最大被選中執行操做。 但因爲某個緣由,操做在 A 上失敗了。 默認狀況下,nova-scheduler 會從新執行過濾操做(重複次數由 scheduler_max_attempts 選項指定,默認是 3)。 那麼這時候 RetryFilter 就會將 A 直接刷掉,避免操做再次失敗。 RetryFilter 一般做爲第一個 filter。
|
|
- AvailabilityZoneFilter
- 爲提升容災性和提供隔離服務,能夠將計算節點劃分到不一樣的Availability Zone中。
- 建立 Instance 時,須要指定將 Instance 部署到在哪一個 Availability Zone中。nova-scheduler 在作 filtering 時,會使用 AvailabilityZoneFilter 將不屬於指定 Availability Zone 的計算節點過濾掉。
|
 |
- RamFilter
- RamFilter 將不能知足 flavor 內存需求的計算節點過濾掉。
- 爲了提升系統的資源使用率,OpenStack 在計算節點可用內存時容許 overcommit,也就是能夠超過實際內存大小。 超過的程度是經過 nova.conf 中 ram_allocation_ratio 這個參數來控制的,默認值爲 1.5
|
ram_allocation_ratio = 1.5
|
其含義是:若是計算節點的內存爲 10GB,OpenStack 則會認爲它有 15GB(10*1.5)內存。
|
|
- DiskFilter
- DiskFilter 將不能知足 flavor 磁盤需求的計算節點過濾掉。
- Disk 一樣容許 overcommit,經過 nova.conf 中 disk_allocation_ratio 控制,默認值爲 1
|
disk_allocation_ratio = 1.0
|
|
|
- CoreFilter
- CoreFilter 將不能知足 flavor vCPU 需求的計算節點過濾掉。
- vCPU 一樣容許 overcommit,經過 nova.conf 中 cpu_allocation_ratio 控制,默認值爲 16
|
cpu_allocation_ratio = 16.0
|
這意味着一個 8 vCPU 的計算節點,nova-scheduler 在調度時認爲它有 128 個 vCPU。 須要提醒的是: nova-scheduler 默認使用的 filter 並無包含 CoreFilter。 若是要用,能夠將 CoreFilter 添加到 nova.conf 的 scheduler_default_filters 配置選項中。
|
|
- ComputeFilter
- ComputeFilter 保證只有 nova-compute 服務正常工做的計算節點纔可以被 nova-scheduler調度。ComputeFilter 顯然是必選的 filter。
|
|
- ComputeCapabilitiesFilter
- ComputeCapabilitiesFilter 根據計算節點的特性來篩選。例如咱們的節點有 x86_64 和 ARM 架構的,若是想將 Instance 指定部署到 x86_64 架構的節點上,就能夠利用 ComputeCapabilitiesFilter。
- flavor 中有個 Metadata ,Compute 的 Capabilities就在 Metadata中指定。
- 點擊update Metadata,「Compute Host Capabilities」 列出了全部可設置 Capabilities

- 點擊 「Architecture」 後面的 「+」,就能夠在右邊的列表中指定具體的架構

- 配置好後,ComputeCapabilitiesFilter 在調度時只會篩選出 x86_64 的節點。 若是沒有設置 Metadata,ComputeCapabilitiesFilter 不會起做用,全部節點都會經過篩選。
|
 當配置了metadata後
 |
- ImagePropertiesFilter
- ImagePropertiesFilter 根據所選 image 的屬性來篩選匹配的計算節點。 跟 flavor 相似,image 也有 metadata,用於指定其屬性。
- 例如但願某個 image 只能運行在 kvm 的 hypervisor 上,能夠經過 「Hypervisor Type」 屬性來指定

- 點擊 「+」,而後在右邊的列表中選擇 「kvm」。

- 配置好後,ImagePropertiesFilter 在調度時只會篩選出 kvm 的節點。 若是沒有設置 Image 的Metadata,ImagePropertiesFilter 不會起做用,全部節點都會經過篩選。
|
 |
- ServerGroupAntiAffinityFilter 這裏能夠進行設置,但我沒成功???
- 能夠儘可能將 instance 分散部署到不一樣的節點上。
|
|
- ServerGroupAffinityFilter
- 與 ServerGroupAntiAffinityFilter 的做用相反,ServerGroupAffinityFilter 會盡可能將 instance 部署到同一個計算節點上。
|
|
- Weight
- nova-scheduler 選出了可以部署 instance 的計算節點。若是有多個計算節點經過了過濾,那麼最終選擇哪一個節點呢?
- Scheduler 會對每一個計算節點打分,得分最高的獲勝。 打分的過程就是 weight,翻譯過來就是計算權重值,那麼 scheduler 是根據什麼來計算權重值呢?
- 目前 nova-scheduler 的默認實現是根據計算節點空閒的內存量計算權重值: 空閒內存越多,權重越大,instance 將被部署到當前空閒內存最多的計算節點上。
|