咱們在使用MongoDB的時候,一個集合裏面能放多少數據,通常取決於硬盤大小,只要硬盤足夠大,那麼咱們能夠無休止地往裏面添加數據。python
而後,有些時候,我只想把MongoDB做爲一個循環隊列來使用,指望它有這樣一個行爲:數據庫
MongoDB有一種Collection叫作capped collection
,就是爲了實現這個目的而設計的。微信
普通的Collection不須要提早建立,只要往MongoDB裏面插入數據,MongoDB自動就會建立。而capped collection
須要提早定義一個集合爲capped
類型。app
語法以下:優化
import pymongo
conn = pymongo.MongoClient()
db = conn.test_capped
db.create_collection('info', capped=True, size=1024 * 1024 * 10, max=5)
複製代碼
對一個數據庫對象使用create_collection
方法,建立集合,其中參數capped=True
說明這是一個capped collection
,並限定它的大小爲10MB,這裏的size
參數的單位是byte,因此10MB就是1024 * 1024 * 10. max=5
表示這個集合最多隻有5條數據,一旦超過5條,就會從頭開始覆蓋。spa
建立好之後,capped collection
的插入操做和查詢操做就和普通的集合徹底同樣了:設計
col = db.info
for i in range(5):
data = {'index': i, 'name': 'test'}
col.insert_one(data)
複製代碼
這裏我插入了5條數據,效果以下圖所示:code
其中,index爲0的這一條是最早插入的。cdn
接下來,我再插入一條數據:對象
data = {'index': 100, 'name': 'xxx'}
col.insert_one(data)
複製代碼
此時數據庫以下圖所示:
能夠看到,index爲0的數據已經被最新的數據覆蓋了。
咱們再插入一條數據看看:
data = {'index': 999, 'name': 'xxx'}
col.insert_one(data)
複製代碼
運行效果以下圖所示:
能夠看到,index爲1的數據也被覆蓋了。
這樣咱們就實現了一個循環隊列。
MongoDB對capped collection
有特別的優化,因此它的讀寫速度比普通的集合快。
可是capped collection
也有一些缺點,在MongoDB的官方文檔中提到:
If an update or a replacement operation changes the document size, the operation will fail.
You cannot delete documents from a capped collection. To remove all documents from a collection, use the
drop()
method to drop the collection and recreate the capped collection.
意思就是說,capped collection
裏面的每一條記錄,能夠更新,可是更新不能改變記錄的大小,不然更新就會失敗。
不能單獨刪除capped collection
中任何一條記錄,只能總體刪除整個集合而後重建。
若是這篇文章對你有幫助,請關注個人微信公衆號: 未聞Code(ID: itskingname),第一時間獲的最新更新: