ceph版本號

概述web

第一個 Ceph 版本是 0.1 ,要回溯到 2008 年 1 月。多年來,版本號方案一直沒變,直到 2015 年 4 月 0.94.1 ( Hammer 的第一個修正版)發佈後,爲了不 0.99 (以及 0.100 或 1.00 ?),咱們制定了新策略。算法

  • x.0.z - 開發版(給早期測試者和勇士們)後端

  • x.1.z - 候選版(用於測試集羣、高手們)服務器

  • x.2.z - 穩定、修正版(給用戶們)網絡

x 將從 9 算起,它表明 Infernalis ( I 是第九個字母),這樣咱們第九個發佈週期的第一個開發版就是 9.0.0 ;後續的開發版依次是 9.0.1 、 9.0.2 等等。app

 

以前的版本號分別爲:負載均衡

 


 

Argonaut  0.48版本(LTS)     2012年6月3日異步

Bobtail   0.56版本(LTS)     2013年1月1日socket

Cuttlefish    0.61版本         2013年5月7日async

Dumpling    0.67版本(LTS)     2013年8月14日

Emperor   0.72版本        2013年11月9日

Firefly    0.80版本(LTS)     2014年5月

Giant     Stable        October 2014 - April 2015

Hammer     LTS         April 2015 - November 2016

Infernalis    Stable        November 2015 - June 2016

Jewel               2016年4月

Kraken               2017年10月

Luminous                2017年10月

mimic                 2018年5月

 


 

 

Ceph v12.2 Luminous正式版本是Luminous v12.2.x長期穩定版本的第一個版本。在Kraken(v11.2.z)和Jewel(v10.2.z)後咱們作了不少重大修改

 

在Kraken版本上進行的重要修改

  • 通用

    Ceph如今有一個內置的簡易DarshBoard,用於監控集羣狀態。

  • RADOS

    • Bluestore 
      • ceph-osd的新後端存儲BlueStore已經穩定,是新建立的OSD的默認設置。
        BlueStore經過直接管理物理HDD或SSD而不使用諸如XFS的中間文件系統,來管理每一個OSD存儲的數據,這提供了更大的性能和功能。
      • BlueStore支持Ceph存儲的全部的完整的數據和元數據校驗。
      • BlueStore內嵌支持使用zlib,snappy或LZ4進行壓縮。(Ceph還支持zstd進行RGW壓縮,但因爲性能緣由,不爲BlueStore推薦使用zstd)。
    • EC池如今徹底支持覆蓋,容許它們與RBD和CephFS一塊兒使用。
    • ceph-mgr:
      • ceph-mgr是一個新的後臺進程,這是任何Ceph部署的必須部分。雖然當ceph-mgr中止時,IO能夠繼續,
        可是度量不會刷新,而且某些與度量相關的請求(例如,ceph df)可能會被阻止。咱們建議您多部署ceph-mgr的幾個實例來實現可靠性。
      • ceph-mgr守護進程daemon包括基於REST的API管理。注:API仍然是實驗性質的,目前有一些限制,但將來會成爲API管理的基礎。
      • ceph-mgr還包括一個Prometheus插件。
      • ceph-mgr如今有一個Zabbix插件。使用zabbix_sender,它能夠將集羣故障事件發送到Zabbix Server主機。
        這樣能夠方便地監視Ceph羣集的狀態,並在發生故障時發送通知。
    • 集羣的整體可擴展性有所提升。咱們已經成功測試了多達10,000個OSD的集羣。
    • 目前,每一個OSD都具備與其相關聯的設備類(例如,hdd或ssd),容許CRUSH規則將數據簡單地映射到系統中的設備的子集。
      一般不須要手動編寫CRUSH規則或手動編輯CRUSH。能夠優化CRUSH權重,以保持OSD之間數據的近乎完美的分佈。
    • 還有一個新的upmap異常處理機制,容許單個PG移動以實現完美的分發(這須要客戶端)。
    • 每一個OSD目前能夠根據後端設備是HDD仍是SSD來調整其默認配置。通常不須要手動調整。
    • 原型mclock QoS排隊算法已經可用。
    • 新增一種退出機制,能夠防止OSD出現對當前不能處理IO對象或PG的請求過載狀況。
    • OSD更換過程簡化,變得更增強大了。
    • 您可使用ceph功能來查詢全部鏈接的後臺程序和客戶端的支持功能和版本。
    • 經過ceph osd set-require-min-compat-client鏈接到集羣,您能夠配置最舊的Ceph客戶端版本,但 Ceph將阻止您啓用會破壞與這些客戶端的兼容性的功能。
    • 包括osd_recovery_sleep,osd_snap_trim_sleep和osd_scrub_sleep的幾個睡眠設置,已經被從新實現,而且能夠有效地工做。(這些在某些狀況下用於解決問題,限制後臺工做。)
    • 完成對Luminous的升級後,集羣將嘗試將現有池與已知應用(即CephFS,RBD和RGW)相關聯。未與應用程序關聯的使用池將生成健康警告,可使用新命令手動關聯任何未關聯的池。ceph osd pool application enable
  • RGW

    • RGW支持最終用戶請求服務,經過ElasticSearch進行RGW元數據搜索,而且還支持自定義元數據字段。
      查詢語言是一組RESTful API,用戶能夠經過其元數據來搜索對象。還添加了容許自定義元數據字段控制的新API。
    • RGW支持動態存儲桶索引分片。隨着桶中的對象數量的增長,RGW將自動從新構建桶索引。不須要用戶干預或桶大小容量規劃。
    • RGW引入了上傳對象的服務器端加密,用於管理加密密鑰的三個選項有:自動加密(僅推薦用於測試設置),客戶提供的相似於Amazon SSE-C規範的密鑰,以及經過使用外部密鑰管理服務 OpenstackBarbician)相似於Amazon SSE-KMS規範。
    • RGW具備初步的相似AWS的存儲桶策略API支持。如今,策略是一種表達一系列新受權概念的方式。將來,這將成爲附加身份驗證功能的基礎,例如STS和組策略等。
    • RGW經過使用rados命名空間合併了幾個元數據索引池。
    • 新增S3對象標記API; 只支持GET / PUT / DELETE和PUT。
    • RGW多站點支持在桶級啓用或禁用同步。
  • RBD

    • RBD目前經過新的–data-pool選項來建立rbd,對EC池具備完整穩定的支持。
    • RBD鏡像的rbd-mirror後臺進程是可用的。咱們建議您多部署幾個rbd鏡像來實現可靠性。
    • RBD鏡像的rbd-mirror守護進程使用每一個實例的惟一Ceph用戶ID來支持新的Dashboard。
    • 在建立集羣期間,再也不自動建立默認的’rbd’池。另外,當沒有指定池時,rbd CLI使用的默認池的名稱能夠經過新的rbd default pool = <pool name>配置選項來覆蓋。
    • 經過新的rbd trash命令初始支持延遲映像刪除。鏡像,即便是由克隆主動使用的鏡像,也能夠移動到垃圾桶,並在之後刪除。
    • 新的管理池級別的rbd mirror poolpromote和rbd mirror pool demote命令能夠批量提高/降級池內全部的鏡像文件。
    • 鏡像如今能夠經過rbd mirroringreplay delay = <seconds>配置選項支持可配置的複製延遲。
    • 當對象映射功能啓用時,可改進丟棄處理功能。
    • RBD import 和 copy命令如今能夠檢測稀疏並保留稀疏區域。
    • 快照能夠包含建立時間戳。
    • 爲RBD客戶端指定了用戶受權功能簡化。 使用RBD功能配置文件的通常語法是「mon’profile rbd’osd’profile rbd [-read-only] [pool = {pool-name} [,…]]’」。
  • CephFS

    • 多MDS已經穩定,主MDS數量能夠根據需求進行調整。
    • CephFS目錄分片已經穩定的,默認狀況下在新的文件系統上啓用。
      要使其在現有的文件系統上啓動,要使用「ceph fs set<fs_name> allow_dirfrags」。大型或很是繁忙的目錄被分割並(可能)自動分佈在多個MDS後臺駐留程序中。
    • 在不須要自動負載均衡的狀況下,目錄子樹能夠明確固定到特定的MDS後臺程序。
    • 客戶端密鑰如今可使用新的ceph fs authorize命令建立。
    • 當在具備CephFS的Pool上運行’df’命令時,結果顯示的內容是使用和可用的文件存儲空間數據池(僅限fuse客戶端)。
  • Miscellaneous

    • Debian Stretch如今正在構建版本包。QA僅限於CentOS和Ubuntu(xenial and trusty),咱們如今構建的發行版包括: 
      • CentOS 7 (x86_64 and aarch64)
      • Debian 8 Jessie (x86_64)
      • Debian 9 Stretch (x86_64)
      • Ubuntu 16.04 Xenial (x86_64 and aarch64)
      • Ubuntu 14.04 Trusty (x86_64)
    • FreeBSD的Ceph的第一個版本可用。經過常規FreeBSD端口和軟件包發佈系統,最新可用版本:net/ceph-devel。

 

 

在Jewel版本上進行的重要修改

    • RADOS

      • 如今默認爲AsyncMessenger (ms type = async)的傳統SimpleMessenger。最明顯的區別是
        咱們如今使用固定大小的線程池進行網絡鏈接(而不是使用SimpleMessenger,一個socket兩個線程)。
      • 優化OSD故障檢測時間,而之前的心跳超時(默認爲20秒)。
      • 優化OSDMaps的代碼量。
      • 集羣在進行重平衡/數據恢復時,OSD會中止Scrub。
    • RGW

      • RGW如今支持S3多對象複製API。
      • 如今能夠離線重塑現有的分支。離線目前,桶重塑要求全部IO(特別是寫入)到特定的桶是靜止的。(用於自動在線重塑Luminous的新功能。)
      • RGW如今支持對象的數據壓縮。
      • Civetweb版本已升級到1.8。
      • 如今支持Swift靜態網站API(前提支持S3)。
      • 添加了S3 bucket生命週期API。注意目前只支持對象到期。
      • 支持自定義搜索過濾器已添加到LDAP認證中實現。
      • 對NFS版本3的支持已添加到RGW NFS網關。
    • RBD

      • image快照的數量可配置最大值。
      • rbd Python API如今支持異步IO操做。
相關文章
相關標籤/搜索