Ceph —— ceph.conf經常使用參數
如下是一些經常使用到的Ceph配置調優參數,默認值均爲ceph_nautilus(14.2.1)源碼中抄錄,若有參數描述解釋上的不妥之處,望指出。git
-
mon_osd_cache_size
- 要緩存到內存中的osdmap的最大數量
- 默認值:500M
-
mon_osd_max_initial_pgs
- 建立一個池的最大pg數(若用戶指定了比這更多的PG,那集羣將在建立池以後分割PG,以便達到目標)
- 默認值:1024
-
mon_osd_min_up_ratio
- 在把 OSD 標記爲 down 前,保持處於 up 狀態的 OSD 最小比例。
- 默認值:0.3
-
mon_osd_min_in_ratio
- 在把 OSD 標記爲 out 前,保持處於 in 狀態的 OSD 最小比例。
- 默認值:0.75
-
mon_osd_down_out_interval
- 在 OSD 中止響應多少秒後把它標記爲 down 且 out 。
- 默認值:600
-
mon_osd_nearfull_ratio
- 告警水位,集羣中的任一OSD空間使用率大於等於此數值時,集羣將被標記爲NearFull,此時集羣將產生告警,並提示全部已經處於NearFull狀態的OSD
- 默認值:0.85
-
mon_osd_full_ratio
- 報停水位,集羣任意一個OSD使用率大於等於此數值時,集羣將被標記爲full,此時集羣中止接受客戶端的寫入請求
- 默認值:0.95
-
mon_osd_backfillfull_ratio
- OSD空間使用率大於等於此數值時,拒絕PG經過Backfill方式遷出或者繼續遷入本OSD
- 默認值:0.90
-
osd_failsafe_full_ratio
- PG執行包含寫操做的op時,防止所在的OSD磁盤空間被100%寫滿的最後一道屏障,超過此限制時,op將直接被丟棄
- 默認值:0.97
-
mon_max_pg_per_osd
- 集羣容許的每一個OSD的最大pg數
- 默認值:250(單個節點OSD少的狀況,建議能夠調大些)
-
osd_scrub_chunk_min
-
osd_scrub_chunk_max
-
osd_max_scrubs
-
osd_scrub_begin_hour
-
osd_scrub_end_hour
- scrub結束時間
- 默認值:24 (也就是說默認爲24小時,這個自行把控)
-
osd_deep_scrub_interval
-
osd_recovery_max_active
- 控制在單個OSD上,最多能夠有多少個PG同時recover
- 默認值:3
如需更多參數詳情,能夠git一下本身用的ceph版本的源碼來查詢,更準確一些緩存