Ceph —— ceph.conf經常使用參數

Ceph —— ceph.conf經常使用參數


如下是一些經常使用到的Ceph配置調優參數,默認值均爲ceph_nautilus(14.2.1)源碼中抄錄,若有參數描述解釋上的不妥之處,望指出。git


  • mon_osd_cache_size

    • 要緩存到內存中的osdmap的最大數量
    • 默認值:500M
  • mon_osd_max_initial_pgs

    • 建立一個池的最大pg數(若用戶指定了比這更多的PG,那集羣將在建立池以後分割PG,以便達到目標)
    • 默認值:1024
  • mon_osd_min_up_ratio

    • 在把 OSD 標記爲 down 前,保持處於 up 狀態的 OSD 最小比例。
    • 默認值:0.3
  • mon_osd_min_in_ratio

    • 在把 OSD 標記爲 out 前,保持處於 in 狀態的 OSD 最小比例。
    • 默認值:0.75
  • mon_osd_down_out_interval

    • 在 OSD 中止響應多少秒後把它標記爲 down 且 out 。
    • 默認值:600
  • mon_osd_nearfull_ratio

    • 告警水位,集羣中的任一OSD空間使用率大於等於此數值時,集羣將被標記爲NearFull,此時集羣將產生告警,並提示全部已經處於NearFull狀態的OSD
    • 默認值:0.85
  • mon_osd_full_ratio

    • 報停水位,集羣任意一個OSD使用率大於等於此數值時,集羣將被標記爲full,此時集羣中止接受客戶端的寫入請求
    • 默認值:0.95
  • mon_osd_backfillfull_ratio

    • OSD空間使用率大於等於此數值時,拒絕PG經過Backfill方式遷出或者繼續遷入本OSD
    • 默認值:0.90
  • osd_failsafe_full_ratio

    • PG執行包含寫操做的op時,防止所在的OSD磁盤空間被100%寫滿的最後一道屏障,超過此限制時,op將直接被丟棄
    • 默認值:0.97
  • mon_max_pg_per_osd

    • 集羣容許的每一個OSD的最大pg數
    • 默認值:250(單個節點OSD少的狀況,建議能夠調大些)
  • osd_scrub_chunk_min

    • 在單個塊中要清洗的對象的最小數量
    • 默認值:5
  • osd_scrub_chunk_max

    • 在單個塊中要清洗的最大對象數
    • 默認值:25
  • osd_max_scrubs

    • 單個OSD上的最大併發清洗數量
    • 默認值:1
  • osd_scrub_begin_hour

    • scrub開始時間
    • 默認值:0
  • osd_scrub_end_hour

    • scrub結束時間
    • 默認值:24 (也就是說默認爲24小時,這個自行把控)
  • osd_deep_scrub_interval

    • 深層 scrub 每一個PG
    • 默認值:一週
  • osd_recovery_max_active

    • 控制在單個OSD上,最多能夠有多少個PG同時recover
    • 默認值:3

如需更多參數詳情,能夠git一下本身用的ceph版本的源碼來查詢,更準確一些緩存

相關文章
相關標籤/搜索