RabbitMQ、Redis、Memcache、SQLAlchemy

Memcached

Memcached 是一個高性能的分佈式內存對象緩存系統,用於動態Web應用以減輕數據庫負載。它經過在內存中緩存數據和對象來減小讀取數據庫的次數,從而提升動態、數據庫驅動網站的速度。Memcached基於一個存儲鍵/值對的hashmap。其守護進程(daemon )是用C寫的,可是客戶端能夠用任何語言來編寫,並經過memcached協議與守護進程通訊。python

Memcached安裝:redis

wget http://memcached.org/latest
tar -zxvf memcached-1.x.x.tar.gz
cd memcached-1.x.x
./configure && make && make test && sudo make install
 
PS:依賴libevent
       yum install libevent-devel
       apt-get install libevent-dev

啓動Memcached數據庫

memcached -d -m 10    -u root -l 10.211.55.4 -p 12000 -c 256 -P /tmp/memcached.pid
 
參數說明:
    -d 是啓動一個守護進程
    -m 是分配給Memcache使用的內存數量,單位是MB
    -u 是運行Memcache的用戶
    -l 是監聽的服務器IP地址
    -p 是設置Memcache監聽的端口,最好是1024以上的端口
    -c 選項是最大運行的併發鏈接數,默認是1024,按照你服務器的負載量來設定
    -P 是設置保存Memcache的pid文件

Memcached命令後端

存儲命令: set/add/replace/append/prepend/cas
獲取命令: get/gets
其餘命令: delete/stats..

 Python操做Memcached 緩存

下載安裝:https://pypi.python.org/pypi/python-memcached服務器

一、第一次操做網絡

1 import memcache 2  
3 mc = memcache.Client(['10.211.55.4:12000'], debug=True) 4 mc.set("foo", "bar") 5 ret = mc.get('foo') 6 print ret

Ps:debug = True 表示運行出現錯誤時,現實錯誤信息,上線後移除該參數。session

二、天生支持集羣  數據結構

python-memcached模塊原生支持集羣操做,其原理是在內存維護一個主機列表,且集羣中主機的權重值和主機在列表中重複出現的次數成正比併發

主機    權重
    1.1.1.1   1
    1.1.1.2   2
    1.1.1.3   1
 
那麼在內存中主機列表爲:
    host_list = ["1.1.1.1", "1.1.1.2", "1.1.1.2", "1.1.1.3", ]
mc = memcache.Client([('1.1.1.1:12000', 1), ('1.1.1.2:12000', 2), ('1.1.1.3:12000', 1)], debug=True)
 
mc.set('k1', 'v1')

三、add

import memcache
 
mc = memcache.Client(['10.211.55.4:12000'], debug=True)
mc.add('k1', 'v1')
# mc.add('k1', 'v2') # 報錯,對已經存在的key重複添加,失敗!!!

四、replace

replace 修改某個key的值,若是key不存在,則異常

import memcache
 
mc = memcache.Client(['10.211.55.4:12000'], debug=True)
# 若是memcache中存在kkkk,則替換成功,不然一場
mc.replace('kkkk','999')

五、set 和 set_multi

set 設置一個鍵值對,若是key不存在,則建立,若是key存在,則修改 set_multi 設置多個鍵值對,若是key不存在,則建立,若是key存在,則修改 import memcache mc = memcache.Client(['10.211.55.4:12000'], debug=True) mc.set('key0', 'wupeiqi') mc.set_multi({'key1': 'val1', 'key2': 'val2'})

六、delete 和 delete_multi

delete             在Memcached中刪除指定的一個鍵值對
delete_multi    在Memcached中刪除指定的多個鍵值對

import memcache
 
mc = memcache.Client(['10.211.55.4:12000'], debug=True)
 
mc.delete('key0')
mc.delete_multi(['key1', 'key2'])

七、get 和 get_multi

import memcache
 
mc = memcache.Client(['10.211.55.4:12000'], debug=True)
 
val = mc.get('key0')
item_dict = mc.get_multi(["key1", "key2", "key3"])

八、append 和 prepend

append    修改指定key的值,在該值 後面 追加內容
prepend   修改指定key的值,在該值 前面 插入內容

import memcache
 
mc = memcache.Client(['10.211.55.4:12000'], debug=True)
# k1 = "v1"
 
mc.append('k1', 'after')
# k1 = "v1after"
 
mc.prepend('k1', 'before')
# k1 = "beforev1after"

九、decr 和 incr  

incr  自增,將Memcached中的某一個值增長 N ( N默認爲1 )
decr 自減,將Memcached中的某一個值減小 N ( N默認爲1 )

import memcache
 
mc = memcache.Client(['10.211.55.4:12000'], debug=True)
mc.set('k1', '777')
 
mc.incr('k1')
# k1 = 778
 
mc.incr('k1', 10)
# k1 = 788
 
mc.decr('k1')
# k1 = 787
 
mc.decr('k1', 10)
# k1 = 777

十、gets 和 cas

如商城商品剩餘個數,假設改值保存在memcache中,product_count = 900
A用戶刷新頁面從memcache中讀取到product_count = 900
B用戶刷新頁面從memcache中讀取到product_count = 900

若是A、B用戶均購買商品

A用戶修改商品剩餘個數 product_count=899
B用戶修改商品剩餘個數 product_count=899

如此一來緩存內的數據便不在正確,兩個用戶購買商品後,商品剩餘仍是 899
若是使用python的set和get來操做以上過程,那麼程序就會如上述所示狀況!

若是想要避免此狀況的發生,只要使用 gets 和 cas 便可,如:

import memcache
mc = memcache.Client(['10.211.55.4:12000'], debug=True, cache_cas=True)
 
v = mc.gets('product_count')
# ...
# 若是有人在gets以後和cas以前修改了product_count,那麼,下面的設置將會執行失敗,剖出異常,從而避免非正常數據的產生
mc.cas('product_count', "899")

Ps:本質上每次執行gets時,會從memcache中獲取一個自增的數字,經過cas去修改gets的值時,會攜帶以前獲取的自增值和memcache中的自增值進行比較,若是相等,則能夠提交,若是不想等,那表示在gets和cas執行之間,又有其餘人執行了gets(獲取了緩衝的指定值), 如此一來有可能出現非正常數據,則不容許修改。

 

Redis

redis是一個key-value存儲系統。和Memcached相似,它支持存儲的value類型相對更多,包括string(字符串)、list(鏈表)、set(集合)、zset(sorted set --有序集合)和hash(哈希類型)。這些數據類型都支持push/pop、add/remove及取交集並集和差集及更豐富的操做,並且這些操做都是原子性的。在此基礎上,redis支持各類不一樣方式的排序。與memcached同樣,爲了保證效率,數據都是緩存在內存中。區別的是redis會週期性的把更新的數據寫入磁盤或者把修改操做寫入追加的記錄文件,而且在此基礎上實現了master-slave(主從)同步。

1. 使用Redis有哪些好處? (1) 速度快,由於數據存在內存中,相似於HashMap,HashMap的優點就是查找和操做的時間複雜度都是O(1) (2) 支持豐富數據類型,支持string,list,set,sorted set,hash (3) 支持事務,操做都是原子性,所謂的原子性就是對數據的更改要麼所有執行,要麼所有不執行 (4) 豐富的特性:可用於緩存,消息,按key設置過時時間,過時後將會自動刪除 2. redis相比memcached有哪些優點? (1) memcached全部的值均是簡單的字符串,redis做爲其替代者,支持更爲豐富的數據類型 (2) redis的速度比memcached快不少 (3) redis能夠持久化其數據 3. redis常見性能問題和解決方案: (1) Master最好不要作任何持久化工做,如RDB內存快照和AOF日誌文件 (2) 若是數據比較重要,某個Slave開啓AOF備份數據,策略設置爲每秒同步一次 (3) 爲了主從複製的速度和鏈接的穩定性,Master和Slave最好在同一個局域網內 (4) 儘可能避免在壓力很大的主庫上增長從庫 (5) 主從複製不要用圖狀結構,用單向鏈表結構更爲穩定,即:Master <- Slave1 <- Slave2 <- Slave3... 這樣的結構方便解決單點故障問題,實現Slave對Master的替換。若是Master掛了,能夠馬上啓用Slave1作Master,其餘不變。 4. MySQL裏有2000w數據,redis中只存20w的數據,如何保證redis中的數據都是熱點數據 相關知識:redis 內存數據集大小上升到必定大小的時候,就會施行數據淘汰策略。redis 提供 6種數據淘汰策略: voltile-lru:從已設置過時時間的數據集(server.db[i].expires)中挑選最近最少使用的數據淘汰 volatile-ttl:從已設置過時時間的數據集(server.db[i].expires)中挑選將要過時的數據淘汰 volatile-random:從已設置過時時間的數據集(server.db[i].expires)中任意選擇數據淘汰 allkeys-lru:從數據集(server.db[i].dict)中挑選最近最少使用的數據淘汰 allkeys-random:從數據集(server.db[i].dict)中任意選擇數據淘汰 no-enviction(驅逐):禁止驅逐數據 5. Memcache與Redis的區別都有哪些? 1)、存儲方式 Memecache把數據所有存在內存之中,斷電後會掛掉,數據不能超過內存大小。 Redis有部份存在硬盤上,這樣能保證數據的持久性。 2)、數據支持類型 Memcache對數據類型支持相對簡單。 Redis有複雜的數據類型。 3),value大小 redis最大能夠達到1GB,而memcache只有1MB 6. Redis 常見的性能問題都有哪些?如何解決? 1).Master寫內存快照,save命令調度rdbSave函數,會阻塞主線程的工做,當快照比較大時對性能影響是很是大的,會間斷性暫停服務,因此Master最好不要寫內存快照。 2).Master AOF持久化,若是不重寫AOF文件,這個持久化方式對性能的影響是最小的,可是AOF文件會不斷增大,AOF文件過大會影響Master重啓的恢復速度。Master最好不要作任何持久化工做,包括內存快照和AOF日誌文件,特別是不要啓用內存快照作持久化,若是數據比較關鍵,某個Slave開啓AOF備份數據,策略爲每秒同步一次。 3).Master調用BGREWRITEAOF重寫AOF文件,AOF在重寫的時候會佔大量的CPU和內存資源,致使服務load太高,出現短暫服務暫停現象。 4). Redis主從複製的性能問題,爲了主從複製的速度和鏈接的穩定性,Slave和Master最好在同一個局域網內 7, redis 最適合的場景 Redis最適合全部數據in-momory的場景,雖然Redis也提供持久化功能,但實際更多的是一個disk-backed的功能,跟傳統意義上的持久化有比較大的差異,那麼可能你們就會有疑問,彷佛Redis更像一個增強版的Memcached,那麼什麼時候使用Memcached,什麼時候使用Redis呢? 若是簡單地比較Redis與Memcached的區別,大多數都會獲得如下觀點: 1 、Redis不只僅支持簡單的k/v類型的數據,同時還提供list,set,zset,hash等數據結構的存儲。 2 、Redis支持數據的備份,即master-slave模式的數據備份。 3 、Redis支持數據的持久化,能夠將內存中的數據保持在磁盤中,重啓的時候能夠再次加載進行使用。 (1)、會話緩存(Session Cache) 最經常使用的一種使用Redis的情景是會話緩存(session cache)。用Redis緩存會話比其餘存儲(如Memcached)的優點在於:Redis提供持久化。當維護一個不是嚴格要求一致性的緩存時,若是用戶的購物車信息所有丟失,大部分人都會不高興的,如今,他們還會這樣嗎? 幸運的是,隨着 Redis 這些年的改進,很容易找到怎麼恰當的使用Redis來緩存會話的文檔。甚至廣爲人知的商業平臺Magento也提供Redis的插件。 (2)、全頁緩存(FPC) 除基本的會話token以外,Redis還提供很簡便的FPC平臺。回到一致性問題,即便重啓了Redis實例,由於有磁盤的持久化,用戶也不會看到頁面加載速度的降低,這是一個極大改進,相似PHP本地FPC。 再次以Magento爲例,Magento提供一個插件來使用Redis做爲全頁緩存後端。 此外,對WordPress的用戶來講,Pantheon有一個很是好的插件 wp-redis,這個插件能幫助你以最快速度加載你曾瀏覽過的頁面。 (3)、隊列 Reids在內存存儲引擎領域的一大優勢是提供 list 和 set 操做,這使得Redis能做爲一個很好的消息隊列平臺來使用。Redis做爲隊列使用的操做,就相似於本地程序語言(如Python)對 list 的 push/pop 操做。 若是你快速的在Google中搜索「Redis queues」,你立刻就能找到大量的開源項目,這些項目的目的就是利用Redis建立很是好的後端工具,以知足各類隊列需求。例如,Celery有一個後臺就是使用Redis做爲broker,你能夠從這裏去查看。 (4),排行榜/計數器 Redis在內存中對數字進行遞增或遞減的操做實現的很是好。集合(Set)和有序集合(Sorted Set)也使得咱們在執行這些操做的時候變的很是簡單,Redis只是正好提供了這兩種數據結構。因此,咱們要從排序集合中獲取到排名最靠前的10個用戶–咱們稱之爲「user_scores」,咱們只須要像下面同樣執行便可: 固然,這是假定你是根據你用戶的分數作遞增的排序。若是你想返回用戶及用戶的分數,你須要這樣執行: ZRANGE user_scores 0 10 WITHSCORES Agora Games就是一個很好的例子,用Ruby實現的,它的排行榜就是使用Redis來存儲數據的,你能夠在這裏看到。 (5)、發佈/訂閱 最後(但確定不是最不重要的)是Redis的發佈/訂閱功能。發佈/訂閱的使用場景確實很是多。我已看見人們在社交網絡鏈接中使用,還可做爲基於發佈/訂閱的腳本觸發器,甚至用Redis的發佈/訂閱功能來創建聊天系統!(不,這是真的,你能夠去核實)。 Redis提供的全部特性中,我感受這個是喜歡的人最少的一個,雖然它爲用戶提供若是此多功能。
View Code

1、Redis安裝和基本使用

wget http://download.redis.io/releases/redis-3.0.6.tar.gz
tar xzf redis-3.0.6.tar.gz
cd redis-3.0.6
make

啓動服務端

src/redis-server

啓動客戶端

src/redis-cli
redis> set foo bar
OK
redis> get foo
"bar"

2、Python操做Redis

  sudo pip install redis  

一、操做模式

redis-py提供兩個類Redis和StrictRedis用於實現Redis的命令,StrictRedis用於實現大部分官方的命令,並使用官方的語法和命令,Redis是StrictRedis的子類,用於向後兼容舊版本的redis-py。  

import redis
 
r = redis.Redis(host='10.211.55.4', port=6379)
r.set('foo', 'Bar')
print r.get('foo')

二、鏈接池

import redis
 
pool = redis.ConnectionPool(host='10.211.55.4', port=6379)
 
r = redis.Redis(connection_pool=pool)
r.set('foo', 'Bar')
print r.get('foo')

三、操做

String操做,redis中的String在在內存中按照一個name對應一個value來存儲

set(name, value, ex=None, px=None, nx=False, xx=False) 在Redis中設置值,默認,不存在則建立,存在則修改 參數: ex,過時時間(秒) px,過時時間(毫秒) nx,若是設置爲True,則只有name不存在時,當前set操做才執行 xx,若是設置爲True,則只有name存在時,崗前set操做才執行 setnx(name, value) 設置值,只有name不存在時,執行設置操做(添加) setex(name, value, time) # time,過時時間(數字秒 或 timedelta對象)
 psetex(name, time_ms, value) # time_ms,過時時間(數字毫秒 或 timedelta對象)
 get(name) # 獲取值
 mget(keys, *args)   #批量獲取 mget({'k1': 'v1', 'k2': 'v2'})
 getrange(key, start, end) ## 獲取子序列(根據字節獲取,非字符)
 setrange(name, offset, value) # 修改字符串內容,從指定字符串索引開始向後替換(新值太長時,則向後添加)
 setbit(name, offset, value) # 注:若是在Redis中有一個對應: n1 = "foo",
        那麼字符串foo的二進制表示爲:01100110 01101111 01101111 因此,若是執行 setbit('n1', 7, 1),則就會將第7位設置爲1, 那麼最終二進制則變成 01100111 01101111 01101111,            即:"goo" getbit(name, offset) ## 獲取name對應的值的二進制表示中的某位的值 (0或1)
 bitcount(key, start=None, end=None)  # 獲取name對應的值的二進制表示中 1 的個數
 bitop(operation, dest, *keys) ## 獲取多個值,並將值作位運算,將最後的結果保存至新的name對應的值
 strlen(name) # 返回name對應值的字節長度(一個漢字3個字節)
 incr(self, name, amount=1)    ## 自增 name對應的值,當name不存在時,則建立name=amount,不然,則自增。
 incrbyfloat(self, name, amount=1.0) decr(self, name, amount=1) append(key, value)

 

Hash操做,redis中Hash在內存中的存儲格式以下圖:

:

  

hset(name, key, value) # hsetnx(name, key, value),當name對應的hash中不存在當前key時則建立(至關於添加)
 hmset(name, mapping) # r.hmset('xx', {'k1':'v1', 'k2': 'v2'})
 hget(name,key) # 在name對應的hash中獲取多個key的值
     # r.mget('xx', ['k1', 'k2']) 或# print r.hmget('xx', 'k1', 'k2')
 hgetall(name) 獲取name對應hash的全部鍵值 hlen(name) # 獲取name對應的hash中鍵值對的個數
 hkeys(name) # 獲取name對應的hash中全部的key的值
 hvals(name) # 獲取name對應的hash中全部的value的值
 hexists(name, key) # 檢查name對應的hash是否存在當前傳入的key
 hdel(name,*keys)  # 將name對應的hash中指定key的鍵值對刪除
 hincrby(name, key, amount=1)  # 自增name對應的hash中的指定key的值,不存在則建立key=amount
 hincrbyfloat(name, key, amount=1.0)  # 自增name對應的hash中的指定key的值,不存在則建立key=amount
 hscan(name, cursor=0, match=None, count=None) # 增量式迭代獲取,對於數據大的數據很是有用,hscan能夠實現分片的獲取數據,並不是一次性將數據所有獲取完,從而放置內存被撐爆
    # 參數:
    # name,redis的name
    # cursor,遊標(基於遊標分批取獲取數據)
    # match,匹配指定key,默認None 表示全部的key
    # count,每次分片最少獲取個數,默認None表示採用Redis的默認分片個數
    # 如:
    # 第一次:cursor1, data1 = r.hscan('xx', cursor=0, match=None, count=None)
    # 第二次:cursor2, data1 = r.hscan('xx', cursor=cursor1, match=None, count=None)
    # ...
    # 直到返回值cursor的值爲0時,表示數據已經經過分片獲取完畢
 hscan_iter(name, match=None, count=None) # 利用yield封裝hscan建立生成器,實現分批去redis中獲取數據
 
# 參數:
    # match,匹配指定key,默認None 表示全部的key
    # count,每次分片最少獲取個數,默認None表示採用Redis的默認分片個數
 
# 如:
    # for item in r.hscan_iter('xx'):
    # print item 

List操做,redis中的List在在內存中按照一個name對應一個List來存儲。如圖: 

  

lpush(name,values) 每一個新的元素都添加到列表的最左邊 rpush(name, values) 表示從右向左操做 lpushx(name,value) # 在name對應的list中添加元素,只有name已經存在時,值添加到列表的最左邊
 llen(name) # name對應的list元素的個數
 linsert(name, where, refvalue, value)) # 在name對應的列表的某一個值前或後插入一個新值
 
    # 參數:
        # name,redis的name
        # where,BEFORE或AFTER
        # refvalue,標杆值,即:在它先後插入數據
        # value,要插入的數據
 r.lset(name, index, value) # 對name對應的list中的某一個索引位置從新賦值
 
    # 參數:
        # name,redis的name
        # index,list的索引位置
        # value,要設置的值
 r.lrem(name, value, num) # 在name對應的list中刪除指定的值
 
    # 參數:
        # name,redis的name
        # value,要刪除的值
        # num, num=0,刪除列表中全部的指定值;
               # num=2,從前到後,刪除2個;
               # num=-2,從後向前,刪除2個
 lpop(name) # 在name對應的列表的左側獲取第一個元素並在列表中移除,返回值則是第一個元素
 lindex(name, index) 在name對應的列表中根據索引獲取列表元素 lrange(name, start, end) # 在name對應的列表分片獲取數據
    # 參數:
        # name,redis的name
        # start,索引的起始位置
        # end,索引結束位置 
 ltrim(name, start, end) # 在name對應的列表中移除沒有在start-end索引之間的值
 rpoplpush(src, dst) # 從一個列表取出最右邊的元素,同時將其添加至另外一個列表的最左邊
    # 參數:
        # src,要取數據的列表的name
        # dst,要添加數據的列表的nam
 blpop(keys, timeout) # 將多個列表排列,按照從左到右去pop對應列表的元素
 brpoplpush(src, dst, timeout=0) # 從一個列表的右側移除一個元素並將其添加到另外一個列表的左側
    # 參數:
    # src,取出並要移除元素的列表對應的name
    # dst,要插入元素的列表對應的name
    # timeout,當src對應的列表中沒有數據時,阻塞等待其有數據的超時時間(秒),0 表示永遠阻塞
 自定義增量迭代 # 因爲redis類庫中沒有提供對列表元素的增量迭代,若是想要循環name對應的列表的全部元素,那麼就須要:
    # 一、獲取name對應的全部列表
    # 二、循環列表 # 可是,若是列表很是大,那麼就有可能在第一步時就將程序的內容撐爆,全部有必要自定義一個增量迭代的功能:
 
def list_iter(name): """ 自定義redis列表增量迭代 :param name: redis中的name,即:迭代name對應的列表 :return: yield 返回 列表元素 """ list_count = r.llen(name) for index in xrange(list_count): yield r.lindex(name, index) # 使用
for item in list_iter('pp'): print item

Set操做,Set集合就是不容許重複的列表

sadd(name,values) # name對應的集合中添加元素
 scard(name) 獲取name對應的集合中元素個數 sdiff(keys, *args) 在第一個name對應的集合中且不在其餘name對應的集合的元素集合 sdiffstore(dest, keys, *args) # 獲取第一個name對應的集合中且不在其餘name對應的集合,再將其新加入到dest對應的集合中 
 sinter(keys, *args) # 獲取多一個name對應集合的並集
 sinterstore(dest, keys, *args) # 獲取多一個name對應集合的並集,再講其加入到dest對應的集合中
 sismember(name, value) # 獲取name對應的集合的全部成員
 smove(src, dst, value) # 將某個成員從一個集合中移動到另一個集合
 spop(name) # 從集合的右側(尾部)移除一個成員,並將其返回
 srandmember(name, numbers) # 從name對應的集合中隨機獲取 numbers 個元素
 srem(name, values) # 在name對應的集合中刪除某些值
 sunion(keys, *args)   # 獲取多一個name對應的集合的並集
 sunionstore(dest,keys, *args)  # 獲取多一個name對應的集合的並集,並將結果保存到dest對應的集合中
 sscan(name, cursor=0, match=None, count=None) sscan_iter(name, match=None, count=None) # 同字符串的操做,用於增量迭代分批獲取元素,避免內存消耗太大

有序集合,在集合的基礎上,爲每元素排序;元素的排序須要根據另一個值來進行比較,因此,對於有序集合,每個元素有兩個值,即:值和分數,分數專門用來作排序

zadd(name, *args, **kwargs) # 在name對應的有序集合中添加元素
     # zadd('zz', 'n1', 1, 'n2', 2)
     #
     # zadd('zz', n1=11, n2=22)
 zcard(name) # 獲取name對應的有序集合元素的數量
 zcount(name, min, max) # 獲取name對應的有序集合中分數 在 [min,max] 之間的個數
 zincrby(name, value, amount) # 自增name對應的有序集合的 name 對應的分數
 r.zrange( name, start, end, desc=False, withscores=False, score_cast_func=float) # 按照索引範圍獲取name對應的有序集合的元素 # 參數:
    # name,redis的name
    # start,有序集合索引發始位置(非分數)
    # end,有序集合索引結束位置(非分數)
    # desc,排序規則,默認按照分數從小到大排序
    # withscores,是否獲取元素的分數,默認只獲取元素的值
    # score_cast_func,對分數進行數據轉換的函數
 
# 更多:
    # 從大到小排序
    # zrevrange(name, start, end, withscores=False, score_cast_func=float)
 
    # 按照分數範圍獲取name對應的有序集合的元素
    # zrangebyscore(name, min, max, start=None, num=None, withscores=False, score_cast_func=float)
    # 從大到小排序
    # zrevrangebyscore(name, max, min, start=None, num=None, withscores=False, score_cast_func=float)
 zrank(name, value) # 獲取某個值在 name對應的有序集合中的排行(從 0 開始)
         # zrevrank(name, value),從大到小排序
 zrangebylex(name, min, max, start=None, num=None) # 當有序集合的全部成員都具備相同的分值時,有序集合的元素會根據成員的 值 (lexicographical ordering)來進行排序,而這個命令則能夠返回給定的有序集合鍵 key 中, 元素的值介於 min 和 max 之間的成員 # 對集合中的每一個成員進行逐個字節的對比(byte-by-byte compare), 並按照從低到高的順序, 返回排序後的集合成員。 若是兩個字符串有一部份內容是相同的話, 那麼命令會認爲較長的字符串比較短的字符串要大
 zrem(name, values) # 刪除name對應的有序集合中值是values的成員
      zrem('zz', ['s1', 's2']) zremrangebyrank(name, min, max) # 根據排行範圍刪除
 zremrangebyscore(name, min, max) # 根據分數範圍刪除
 zremrangebylex(name, min, max) # 根據值返回刪除
 zscore(name, value) # 獲取name對應有序集合中 value 對應的分數 
 zinterstore(dest, keys, aggregate=None) 獲取兩個有序集合的交集,若是遇到相同值不一樣分數,則按照aggregate進行操做 # aggregate的值爲: SUM MIN MAX
 zunionstore(dest, keys, aggregate=None) # 獲取兩個有序集合的並集,若是遇到相同值不一樣分數,則按照aggregate進行操做
 zscan(name, cursor=0, match=None, count=None, score_cast_func=float) zscan_iter(name, match=None, count=None,score_cast_func=float) 1
# 同字符串類似,相較於字符串新增score_cast_func,用來對分數進行操做

其餘經常使用操做

delete(*names)   # 根據刪除redis中的任意數據類型
exists(name)    # 檢測redis的name是否存在
 keys(pattern='*')   # 根據模型獲取redis的name
    # 更多:
    # KEYS * 匹配數據庫中全部 key 。
    # KEYS h?llo 匹配 hello , hallo 和 hxllo 等。
    # KEYS h*llo 匹配 hllo 和 heeeeello 等。
    # KEYS h[ae]llo 匹配 hello 和 hallo ,但不匹配 hillo
 expire(name ,time) # 爲某個redis的某個name設置超時時間
 rename(src, dst) # 對redis的name重命名爲
 move(name, db)) # 將redis的某個值移動到指定的db下
 randomkey() # 隨機獲取一個redis的name(不刪除)
 randomkey() # 隨機獲取一個redis的name(不刪除)
 type(name) # 獲取name對應值的類型
 scan(cursor=0, match=None, count=None) scan_iter(match=None, count=None) # 同字符串操做,用於增量迭代獲取key
 

四、管道

redis-py默認在執行每次請求都會建立(鏈接池申請鏈接)和斷開(歸還鏈接池)一次鏈接操做,若是想要在一次請求中指定多個命令,則可使用pipline實現一次請求指定多個命令,而且默認狀況下一次pipline 是原子性操做。

import redis
 
pool = redis.ConnectionPool(host='10.211.55.4', port=6379)
 
r = redis.Redis(connection_pool=pool)
 
# pipe = r.pipeline(transaction=False)
pipe = r.pipeline(transaction=True)
pipe.multi()
pipe.set('name', 'alex')
pipe.set('role', 'sb')
 
pipe.execute()
import redis conn = redis.Redis(host='192.168.1.41',port=6379) conn.set('count',1000) with conn.pipeline() as pipe: # 先監視,本身的值沒有被修改過
    conn.watch('count') # 事務開始
 pipe.multi() old_count = conn.get('count') count = int(old_count) if count > 0:  # 有庫存
        pipe.set('count', count - 1) # 執行,把全部命令一次性推送過去
    pipe.execute()
實現計數器

五、發佈訂閱

import redis class RedisHelper: def __init__(self): self.__conn = redis.Redis(host='10.211.55.4') self.chan_sub = 'fm104.5' self.chan_pub = 'fm104.5'

    def public(self, msg): self.__conn.publish(self.chan_pub, msg) return True def subscribe(self): pub = self.__conn.pubsub() pub.subscribe(self.chan_sub) pub.parse_response() return pub
demo

訂閱者:

from monitor.RedisHelper import RedisHelper
 
obj = RedisHelper()
redis_sub = obj.subscribe()
 
while True:
    msg= redis_sub.parse_response()
    print msg

發佈者:

from monitor.RedisHelper import RedisHelper
 
obj = RedisHelper()
obj.public('hello')
相關文章
相關標籤/搜索