優勢:高性能讀寫、單一數據類型、支持客戶端式分佈式集羣、一致性hash、多核結構、多線程讀寫性能高。html
缺點:無持久化、節點故障可能出現緩存穿透、分佈式須要客戶端實現、跨機房數據同步困難、架構擴容複雜度高mysql
優勢:高性能讀寫、多數據類型支持、數據持久化、高可用架構、支持自定義虛擬內存、支持分佈式分片集羣、單線程讀寫性能極高web
缺點:多線程讀寫較Memcached慢面試
應用企業:新浪、京東、直播類平臺、網頁遊戲redis
優勢:高性能讀寫、支持三種存儲引擎(ddb、rdb、ldb)、支持高可用、支持分佈式分片集羣、支撐了幾乎全部淘寶業務的緩存。sql
缺點:單機狀況下,讀寫性能較其餘兩種產品較慢數據庫
memcached:適合多用戶訪問,每一個用戶少許的rwvim
redis :適合少用戶訪問,每一個用戶大量rw緩存
Memcached:多核的緩存服務,更加適合於多用戶併發訪問次數較少的應用場景安全
Redis:單核的緩存服務,單節點狀況下,更加適合於少許用戶,屢次訪問的應用場景。
Redis通常是單機多實例架構,配合redis集羣出現。
1)Redis是一款開源的,ANSI C語言編寫的,高級鍵值(key-value)緩存和支持永久存儲NoSQL數據庫產品
2)Redis採用內存(In-Memory)數據集(DataSet)
3)支持多種數據類型
4)運行於大多數POSIX系統,如Linux、*BSD、OS X等
5)做者: Salvatore Sanfilippo
主要功能:
1)數據高速緩存
2)web會話緩存(session cache)
3)排行榜應用
4)消息隊列
5)發佈訂閱
1)redis.io
2)download/redis.io
3)redisdoc.com
4)redis.cn
1)下載軟件包
[root@redis-master ~]# mkdir /data [root@redis-master ~]# cd /data/ && wget http://download.redis.io/releases/redis-3.2.12.tar.gz
2)解壓並重命名
[root@redis-master data]# cd /data [root@redis-master data]# tar xzf redis-3.2.12.tar.gz [root@redis-master data]# mv redis-3.2.12 redis
3)編譯安裝
[root@redis-master redis]# cd redis/ && make
4)環境變量設置
cat >>/etc/profile<<EOF export PATH=/data/redis/src:$PATH EOF source /etc/profile
5)編輯配置文件
mkdir /data/6379 cat >>/data/6379/redis.conf<<EOF daemonize yes port 6379 logfile /data/redis/redis.log dir /data/redis dbfilename dump.rdb EOF #+++++++++++++++++++++++++++++++++++++++++++++++++++ #配置文件說明 #配置文件路徑/data/6379/ daemonize yes #是否後臺運行 port 6379 #默認端口 logfile /data/6379/redis.log #日誌文件位置 dir /data/6379 #持久化文件存儲位置 dbfilename dump.rdb #RDB持久化數據文件
6)指定配置文件啓動
[root@redis-master redis]# redis-server /data/6379/redis.conf [root@redis-master redis]# ps -ef|grep redis root 23544 1 0 17:34 ? 00:00:00 redis-server *:6379 root 23549 19597 0 17:34 pts/0 00:00:00 grep --color=auto redis #關閉命令:redis-cli shutdown
7)redis啓停腳本
#!/bin/bash #Name:redis_start.sh #Version:V1.0 USAG(){ echo "sh $0 {start|stop|restart|login|ps|tail} PORT" } if [ "$#" = 1 ] then REDIS_PORT='6379' elif [ "$#" = 2 -a -z "$(echo "$2"|sed 's#[0-9]##g')" ] then REDIS_PORT="$2" else USAG exit 0 fi REDIS_IP=$(hostname -I|awk '{print $1}') PATH_DIR=/data/${REDIS_PORT}/ PATH_CONF=${PATH_DIR}/redis.conf PATH_LOG=$PATH_DIR/redis.log PASS=123 CMD_START(){ redis-server ${PATH_CONF} } CMD_SHUTDOWN(){ redis-cli -c -a $PASS -h ${REDIS_IP} -p ${REDIS_PORT} shutdown } CMD_LOGIN(){ redis-cli -c -a $PASS -h ${REDIS_IP} -p ${REDIS_PORT} } CMD_PS(){ ps -ef|grep redis } CMD_TAIL(){ tail -f ${PATH_LOG} } case $1 in start) CMD_START CMD_PS ;; stop) CMD_SHUTDOWN CMD_PS ;; restart) CMD_SHUTDOWN CMD_START CMD_PS ;; login) CMD_LOGIN ;; ps) CMD_PS ;; tail) CMD_TAIL ;; *) USAG esac
當第一次指定ip,端口鏈接時:
[root@redis-master ~]# redis-cli -h 10.0.0.11 -p 6379 #報錯 10.0.0.11:6379> set a 1 (error) DENIED Redis is running in protected mode because protected mode is enabled, no bind address was specified, no authentication password is requested to clients. In this mode connections are only accepted from the loopback interface. If you want to connect from external computers to Redis you may adopt one of the following solutions: 1) Just disable protected mode sending the command 'CONFIG SET protected-mode no' from the loopback interface by connecting to Redis from the same host the server is running, however MAKE SURE Redis is not publicly accessible from internet if you do so. Use CONFIG REWRITE to make this change permanent. 2) Alternatively you can just disable the protected mode by editing the Redis configuration file, and setting the protected mode option to 'no', and then restarting the server. 3) If you started the server manually just for testing, restart it with the '--protected-mode no' option. 4) Setup a bind address or an authentication password. NOTE: You only need to do one of the above things in order for the server to start accepting connections from the outside. #redis默認開啓了保護模式,只容許本地迴環地址登陸並訪問數據庫。 禁止protected-mode: è不推薦 protected-mode yes/no (保護模式,是否只容許本地訪問)
[root@redis-master ~]# vim /data/6379/redis.conf bind 10.0.0.11 127.0.0.1
2)增長驗證requirepass
vim /data/6379/redis.conf requirepass 123456
登陸安全驗證:
[root@redis-master ~]# redis-cli shutdown [root@redis-master ~]# redis-server /data/6379/redis.conf #方式一 [root@redis-master ~]# redis-cli -a 123456 127.0.0.1:6379> set a 1 OK #方式二 [root@redis-master ~]# redis-cli 127.0.0.1:6379> auth 123456 OK
CONFIG GET * #查看全部的配置 CONFIG GET requirepass #查看密碼 CONFIG SET requirepass 123 #修改密碼,實時生效
持久化:將內存數據保存到磁盤
主要有兩種持久化的方式:
能夠在指定的時間間隔內生成數據集的時間點快照(point-in-time snapshot)。
優勢:速度快,適合於用作備份,主從複製也是基於RDB持久化功能實現的。
缺點:會有數據丟失
說明:
#優勢 1)RDB是一種表示某個即時點的Redis數據的緊湊文件。RDB文件適合用於備份。例如,你可能想要每小時歸檔最近24小時的RDB文件,天天保存近30天的RDB快照。這容許你很容易的恢復不一樣版本的數據集以容災。 2)RDB很是適合於災難恢復,做爲一個緊湊的單一文件,能夠被傳輸到遠程的數據中心。 3)RDB最大化了Redis的性能,由於Redis父進程持久化時惟一須要作的是啓動(fork)一個子進程,由子進程完成全部剩餘工做。父進程實例不須要執行像磁盤IO這樣的操做。 4)RDB在重啓保存了大數據集的實例時比AOF要快。 #缺點 1)當你須要在Redis中止工做(例如停電)時最小化數據丟失,RDB可能不太好。你能夠配置不一樣的保存點(savepoint)來保存RDB文件(例如,至少5分鐘和對數據集100次寫以後,可是你能夠有多個保存點)。然而,你一般每隔5分鐘或更久建立一個RDB快照,因此一旦Redis由於任何緣由沒有正確關閉而中止工做,你就得作好最近幾分鐘數據丟失的準備了。 2)RDB須要常常調用fork()子進程來持久化到磁盤。若是數據集很大的話,fork()比較耗時,結果就是,當數據集很是大而且CPU性能不夠強大的話,Redis會中止服務客戶端幾毫秒甚至一秒。AOF也須要fork(),可是你能夠調整多久頻率重寫日誌而不會有損(trade-off)持久性(durability)。
vim /data/6379/redis.conf dir /data/6379 #存放持久化文件的目錄 dbfilename dump.rdb #持久化文件 save 900 1 #900秒(15分鐘)內有1個更改則持久化 save 300 10 #300秒(5分鐘)內有10個更改則持久化 save 60 10000 #60秒內有10000個更改則持久化
stop-writes-on-bgsave-error yes #後臺備份進程出錯時,主進程停不中止寫入? 主進程不中止容易形成數據不一致 rdbcompression yes #導出的rdb文件是否壓縮 若是rdb的大小很大的話建議這麼作 rdbchecksum yes #導入rbd恢復時數據時,要不要檢驗rdb的完整性 驗證版本是否是一致 dbfilename dump.rdb #導出來的rdb文件名 dir ./ #rdb的放置路徑
AOF 持久化(append-only log file)
記錄服務器執行的全部寫操做命令,並在服務器啓動時,經過從新執行這些命令來還原數據集。
AOF 文件中的命令所有以 Redis 協議的格式來保存,新命令會被追加到文件的末尾。
優勢:能夠最大程度保證數據不丟
缺點:日誌記錄量級比較大
appendonly yes #開啓 #appendfsync always #每次修改完就記錄(最多隻丟一次操做) appendfsync everysec #每秒記錄(最多丟失一秒的數據),使用較多 #appendfsync no #寫入工做交給操做系統,由操做系統判斷緩衝區大小,統一寫入到aof.
no-appendfsync-on-rewrite yes/no #正在導出rdb快照的過程當中,要不要中止同步aof auto-aof-rewrite-percentage 100 #aof文件大小比起上次重寫時的大小,增加率100%時重寫,缺點:業務開始的時候,會重複重寫屢次。 auto-aof-rewrite-min-size 64mb #aof文件,至少超過64M時,重寫
在 Redis 2.2 或以上版本,能夠在不重啓的狀況下,從 RDB 切換到 AOF :
一、爲最新的 dump.rdb 文件建立一個備份。
二、將備份放到一個安全的地方。
三、執行如下兩條命令:
redis-cli> CONFIG SET appendonly yes redis-cli> CONFIG SET save ""
四、確保命令執行以後,數據庫的鍵的數量沒有改變。
五、確保寫命令會被正確地追加到 AOF 文件的末尾
redis 持久化方式有哪些?有什麼區別?
rdb:基於快照的持久化,速度更快,通常用做備份,主從複製也是依賴於rdb持久化功能 aof:以追加的方式記錄redis操做日誌的文件。能夠最大程度的保證redis數據安全,相似於mysql的binlog
redis有5種數據類型:
鍵 值 key value #字符類型 key col1:value1 col2 value2 #字典類型 key [a,b,c,d] #列表 0 1 2 3 key1 (a,b,c,d) ##集合 10 20 30 40 key1 ( a, b, c, d) ##有序集合 0 1 2 3
KEYS * keys a keys a* #查看已存在全部鍵的名字 **** TYPE #返回鍵所存儲值的類型 **** EXPIRE\ PEXPIRE #以秒\毫秒設定生存時間 *** TTL\ PTTL #以秒\毫秒爲單位返回生存時間 *** PERSIST #取消生存實現設置 *** DEL #刪除一個key EXISTS #檢查key是否存在 RENAME #變動KEY名 ##########################相關例子################################### 127.0.0.1:6379> set name zhangsan 127.0.0.1:6379> EXPIRE name 60 (integer) 1 127.0.0.1:6379> ttl name (integer) 57 127.0.0.1:6379> set a b ex 60 #設定存活時間 OK 127.0.0.1:6379> ttl a 127.0.0.1:6379> PERSIST a #不過時 (integer) 1 127.0.0.1:6379> ttl a (integer) -1
應用場景:常規計數:微博數,粉絲數等。訂閱、禮物、頁遊
1)設置單個鍵值
set name zhangsan
2)設置多個鍵值
MSET id 101 name zhangsan age 20 gender m #等價於如下操做: SET id 101 set name zhangsan set age 20 set gender m
3)計數器
#每點一次關注,都執行如下命令一次 127.0.0.1:6379> incr num #顯示粉絲數量: 127.0.0.1:6379> get num #暗箱操做: 127.0.0.1:6379> INCRBY num 10000 #增長 (integer) 10006 127.0.0.1:6379> get num "10006" 127.0.0.1:6379> DECRBY num 10000 #減小 (integer) 6 127.0.0.1:6379> get num "6"
4)其餘例子
#增 set mykey "test" #爲鍵設置新值,並覆蓋原有值 getset mycounter 0 #設置值,取值同時進行 127.0.0.1:6379> GETSET lll hujinzhong (nil) 127.0.0.1:6379> get lll "hujinzhong" setex mykey 10 "hello" #設置指定 Key 的過時時間爲10秒,在存活時間能夠獲取value 127.0.0.1:6379> setex mykey 10 "hello" OK 127.0.0.1:6379> get mykey "hello" 127.0.0.1:6379> get mykey (nil) setnx mykey "hello" #若該鍵不存在,則爲鍵設置新值 mset key3 "zyx" key4 "xyz" #批量設置鍵 ----------------------------------------------------------------------------------------- #刪 del mykey 刪除已有鍵 ----------------------------------------------------------------------------------------- 改 append mykey "hello" #若該鍵並不存在,返回當前 Value 的長度 #該鍵已經存在,返回追加後 Value的長度 incr mykey #值增長1,若該key不存在,建立key,初始值設爲0,增長後結果爲1 decrby mykey 5 #值減小5 setrange mykey 20 dd #把第21和22個字節,替換爲dd, 超過value長度,自動補0 ----------------------------------------------------------------------------------------- 查 exists mykey #判斷該鍵是否存在,存在返回 1,不然返回0 get mykey #獲取Key對應的value strlen mykey #獲取指定 Key 的字符長度 ttl mykey #查看一下指定 Key 的剩餘存活時間(秒數) getrange mykey 1 20 #獲取第2到第20個字節,若20超過value長度,則截取第2個和後面全部的 mget key3 key4 #批量獲取鍵
應用場景:存儲部分變動的數據,如用戶信息等。最接近mysql表結構的一種類型
1)存數據
hmset stu id 101 name zhangsan age 20 gender m hmset stu1 id 102 name zhangsan1 age 21 gender f
2)取數據
HMGET stu id name age gender HMGET stu1 id name age gender
3)如何將mysql數據導入redis(實際是由應用實現的)?
#使用sql語句生成redis語句 select concat("hmset city_",id," id ",id," name ",name," countrycode ",countrycode," district ",district," population ",population) from city limit 10 into outfile '/tmp/hmset.txt'; #導入redis中 cat /tmp/hmset.txt |redis-cli -a 123
4)更多例子
#增 hset myhash field1 "s" #若字段field1不存在,建立該鍵及與其關聯的Hashes, Hashes中,key爲field1 ,並設value爲s ,若存在會覆蓋原value hsetnx myhash field1 s #若字段field1不存在,建立該鍵及與其關聯的Hashes, Hashes中,key爲field1 ,並設value爲s, 若字段field1存在,則無效 hmset myhash field1 "hello" field2 "world #一次性設置多個字段 ----------------------------------------------------------------------------------------------------------- #刪 hdel myhash field1 #刪除 myhash 鍵中字段名爲 field1 的字段 del myhash #刪除鍵 ----------------------------------------------------------------------------------------------------------- #改 hincrby myhash field 1 #給field的值加1 ----------------------------------------------------------------------------------------------------------- #查 hget myhash field1 #獲取鍵值爲 myhash,字段爲 field1 的值 hlen myhash #獲取myhash鍵的字段數量 hexists myhash field1 #判斷 myhash 鍵中是否存在字段名爲 field1 的字段 hmget myhash field1 field2 field3 #一次性獲取多個字段 hgetall myhash #返回 myhash 鍵的全部字段及其值 hkeys myhash #獲取myhash 鍵中全部字段的名字 hvals myhash #獲取 myhash 鍵中全部字段的值
消息隊列系統:好比sina微博:在Redis中咱們的最新微博ID使用了常駐緩存,這是一直更新的。可是作了限制不能超過5000個ID,所以獲取ID的函數會一直詢問Redis。只有在start/count參數超出了這個範圍的時候,才須要去訪問數據庫。系統不會像傳統方式那樣「刷新」緩存,Redis實例中的信息永遠是一致的。SQL數據庫(或是硬盤上的其餘類型數據庫)只是在用戶須要獲取「很遠」的數據時纔會被觸發,而主頁或第一個評論頁是不會麻煩到硬盤上的數據庫了。
1)示例:朋友圈
127.0.0.1:6379> LPUSH wechat "today is nice day !" 127.0.0.1:6379> LPUSH wechat "today is bad day !" 127.0.0.1:6379> LPUSH wechat "today is good day !" 127.0.0.1:6379> LPUSH wechat "today is rainy day !" 127.0.0.1:6379> LPUSH wechat "today is friday !" 127.0.0.1:6379> lrange wechat 0 0 #最近一次 1) "today is friday !" 127.0.0.1:6379> lrange wechat 0 1 #最近前兩次 1) "today is friday !" 2) "today is rainy day !" 127.0.0.1:6379> lrange wechat 0 2 1) "today is friday !" 2) "today is rainy day !" 3) "today is good day !" 127.0.0.1:6379> lrange wechat 0 3 127.0.0.1:6379> lrange wechat -2 -1 1) "today is bad day !" 2) "today is nice day !"
2)其餘例子
#增 lpush mykey a b #若key不存在,建立該鍵及與其關聯的List,依次插入a ,b, 若List類型的 #key存在,則插入value中 lpushx mykey2 e #若key不存在,此命令無效, 若key存在,則插入value中 linsert mykey before a a1 #在 a 的前面插入新元素 a1 linsert mykey after e e2 #在e 的後面插入新元素 e2 rpush mykey a b #在鏈表尾部先插入b,在插入a rpushx mykey e #若key存在,在尾部插入e, 若key不存在,則無效 rpoplpush mykey mykey2 #將mykey的尾部元素彈出,再插入到mykey2 的頭部(原子性的操做) ----------------------------------------------------------------------------------------- #刪 del mykey #刪除已有鍵 lrem mykey 2 a #從頭部開始找,按前後順序,值爲a的元素,刪除數量爲2個,若存在第3個,則不刪 ltrim mykey 0 2 #從頭開始,索引爲0,1,2的3個元素,其他所有刪除 ----------------------------------------------------------------------------------------- #改 lset mykey 1 e 從頭開始, 將索引爲1的元素值,設置爲新值 e,若索引越界,則返回錯誤信息 rpoplpush mykey mykey 將 mykey 中的尾部元素移到其頭部 ----------------------------------------------------------------------------------------- #查 lrange mykey 0 -1 #取鏈表中的所有元素,其中0表示第一個元素,-1表示最後一個元素。 lrange mykey 0 2 #從頭開始,取索引爲0,1,2的元素 lrange mykey 0 0 #從頭開始,取第一個元素,從第0個開始,到第0個結束 lpop mykey #獲取頭部元素,而且彈出頭部元素,出棧 lindex mykey 6 #從頭開始,獲取索引爲6的元素 若下標越界,則返回nil
案例:在微博應用中,能夠將一個用戶全部的關注人存在一個集合中,將其全部粉絲存在一個集合。Redis還爲集合提供了求交集、並集、差集等操做,能夠很是方便的實現如共同關注、共同喜愛、二度好友等功能,對上面的全部集合操做,你還可使用不一樣的命令選擇將結果返回給客戶端仍是存集到一個新的集合中。
1)示例
127.0.0.1:6379> sadd lxl pg1 jnl baoqiang gsy alexsb #設置集合 (integer) 5 127.0.0.1:6379> sadd jnl baoqiang ms bbh yf wxg (integer) 5 127.0.0.1:6379> SUNION lxl jnl #求並集 1) "gsy" 2) "pg1" 3) "bbh" 4) "alexsb" 5) "yf" 6) "baoqiang" 7) "jnl" 8) "ms" 9) "wxg" 127.0.0.1:6379> SINTER lxl jnl #求交集 1) "baoqiang" 127.0.0.1:6379> SDIFF jnl lxl #求差集(至關於左鏈接) 1) "bbh" 2) "yf" 3) "ms" 4) "wxg" 127.0.0.1:6379> SDIFF lxl jnl 1) "alexsb" 2) "gsy" 3) "jnl" 4) "pg1" 127.0.0.1:6379>
2)其餘例子
#增 sadd myset a b c #若key不存在,建立該鍵及與其關聯的set,依次插入a ,b,若key存在,則插入value中,若a 在myset中已經存在,則插入了 d 和 e 兩個新成員。 --------------------------------------------------------------------------------------- #刪 spop myset #尾部的b被移出,事實上b並非以前插入的第一個或最後一個成員 srem myset a d f #若f不存在, 移出 a、d ,並返回2 --------------------------------------------------------------------------------------- #改 smove myset myset2 a #將a從 myset 移到 myset2 --------------------------------------------------------------------------------------- #查 sismember myset a #判斷 a 是否已經存在,返回值爲 1 表示存在。 smembers myset #查看set中的內容 scard myset #獲取Set 集合中元素的數量 srandmember myset #隨機的返回某一成員 sdiff myset1 myset2 myset3 #1和2獲得一個結果,拿這個集合和3比較,得到每一個獨有的值 sdiffstore diffkey myset myset2 myset3 #3個集和比較,獲取獨有的元素,並存入diffkey 關聯的Set中 sinter myset myset2 myset3 #得到3個集合中都有的元素 sinterstore interkey myset myset2 myset3 #把交集存入interkey 關聯的Set中 sunion myset myset2 myset3 #獲取3個集合中的成員的並集 sunionstore unionkey myset myset2 myset3 #把並集存入unionkey 關聯的Set中
排行榜應用,取TOP N操做:這個需求與上面需求的不一樣之處在於,前面操做以時間爲權重,這個是以某個條件爲權重,好比按頂的次數排序,這時候就須要咱們的sorted set出馬了,將你要排序的值設置成sorted set的score,將具體的數據設置成相應的value,每次只須要執行一條ZADD命令便可。
1)示例:
127.0.0.1:6379> zadd topN 0 smlt 0 fskl 0 fshkl 0 lzlsfs 0 wdhbx 0 wxg (integer) 6 127.0.0.1:6379> ZINCRBY topN 100000 smlt "100000" 127.0.0.1:6379> ZINCRBY topN 10000 fskl "10000" 127.0.0.1:6379> ZINCRBY topN 1000000 fshkl "1000000" 127.0.0.1:6379> ZINCRBY topN 100 lzlsfs "100" 127.0.0.1:6379> ZINCRBY topN 10 wdhbx "10" 127.0.0.1:6379> ZINCRBY topN 100000000 wxg "100000000" 127.0.0.1:6379> ZREVRANGE topN 0 2 1) "wxg" 2) "fshkl" 3) "smlt" 127.0.0.1:6379> ZREVRANGE topN 0 2 withscores 1) "wxg" 2) "100000000" 3) "fshkl" 4) "1000000" 5) "smlt" 6) "100000" 127.0.0.1:6379>
2)其餘例子
#增 zadd myzset 2 "two" 3 "three" #添加兩個分數分別是 2 和 3 的兩個成員 ---------------------------------------------------------------------------- #刪 zrem myzset one two #刪除多個成員變量,返回刪除的數量 ---------------------------------------------------------------------------- #改 zincrby myzset 2 one #將成員 one 的分數增長 2,並返回該成員更新後的分數 ---------------------------------------------------------------------------- #查 zrange myzset 0 -1 WITHSCORES #返回全部成員和分數,不加WITHSCORES,只返回成員 zrank myzset one #獲取成員one在Sorted-Set中的位置索引值。0表示第一個位置 zcard myzset #獲取 myzset 鍵中成員的數量 zcount myzset 1 2 #獲取分數知足表達式 1 <= score <= 2 的成員的數量 zscore myzset three #獲取成員 three 的分數 zrangebyscore myzset 1 2 #獲取分數知足表達式 1 < score <= 2 的成員 zrangebyscore myzset -inf +inf limit 2 3 返回索引是2和3的成員 #-inf 表示第一個成員,+inf最後一個成員 #limit限制關鍵字 #2 3 是索引號 zremrangebyscore myzset 1 2 #刪除分數 1<= score <= 2 的成員,並返回實際刪除的數量 zremrangebyrank myzset 0 1 #刪除位置索引知足表達式 0 <= rank <= 1 的成員 zrevrange myzset 0 -1 WITHSCORES #按位置索引從高到低,獲取全部成員和分數 #原始成員:位置索引從小到大 one 0 two 1 #執行順序:把索引反轉 位置索引:從大到小 one 1 two 0 #輸出結果: two one zrevrange myzset 1 3 #獲取位置索引,爲1,2,3的成員 #相反的順序:從高到低的順序 zrevrangebyscore myzset 3 0 #獲取分數 3>=score>=0的成員並以相反的順序輸出 zrevrangebyscore myzset 4 0 limit 1 2 #獲取索引是1和2的成員,並反轉位置索引
Redis發佈消息一般有兩種模式:
任務隊列的好處:
其實從Pub/Sub的機制來看,它更像是一個廣播系統,多個Subscriber能夠訂閱多個Channel,多個Publisher能夠往多個Channel中發佈消息。能夠這麼簡單的理解:
1)一個Publisher,多個Subscriber模型
以下圖所示,能夠做爲消息隊列或者消息管道。主要應用:通知、公告
2)多個Publisher,一個Subscriber模型
能夠將PubSub作成獨立的HTTP接口,各應用程序做爲Publisher向Channel中發送消息,Subscriber端收到消息後執行相應的業務邏輯,好比寫數據庫,顯示等等。
主要應用:排行榜、投票、計數。
3)多個Publisher,多個Subscriber模型
能夠向不一樣的Channel中發送消息,由不一樣的Subscriber接收。
主要應用:羣聊、聊天。
客戶端在執行訂閱命令以後進入了訂閱狀態,只能接收 SUBSCRIBE 、PSUBSCRIBE、 UNSUBSCRIBE 、PUNSUBSCRIBE 四個命令。 開啓的訂閱客戶端,沒法收到該頻道以前的消息,由於 Redis 不會對發佈的消息進行持久化。 和不少專業的消息隊列系統(例如Kafka、RocketMQ)相比,Redis的發佈訂閱略顯粗糙,例如沒法實現消息堆積和回溯。但勝在足夠簡單,若是當前場景能夠容忍的這些缺點,也不失爲一個不錯的選擇。
#發佈訂閱例子: #訂閱單頻道: #窗口1: 127.0.0.1:6379> SUBSCRIBE baodi #窗口2: 127.0.0.1:6379> PUBLISH baodi "jin tian zhen kaixin!" #訂閱多頻道: #窗口1: 127.0.0.1:6379> PSUBSCRIBE wang* #窗口2: 127.0.0.1:6379> PUBLISH wangbaoqiang "jintian zhennanshou "
1)redis的事務是基於隊列實現的。mysql的事務是基於事務日誌實現的。
2)redis中的事務跟關係型數據庫中的事務是一個類似的概念,可是有不一樣之處。關係型數據庫事務執行失敗後面的sql語句不在執行,而redis中的一條命令執行失敗,其他的命令照常執行。
3)redis中開啓一個事務是使用multi,至關於begin\start transaction,exec提交事務,discard取消隊列命令(非回滾操做)。
#開啓事務功能時(multi) multi command1 command2 command3 command4 #4條語句做爲一個組,並無真正執行,而是被放入同一隊列中。若是,這是執行discard,會直接丟棄隊列中全部的命令,而不是作回滾。 #當執行exec時,對列中全部操做,要麼全成功要麼全失敗
DISCARD #取消事務,放棄執行事務塊內的全部命令。 EXEC #執行全部事務塊內的命令。 MULTI #標記一個事務塊的開始。 UNWATCH #取消 WATCH 命令對全部 key 的監視。 WATCH key [key ...] #監視一個(或多個) key ,若是在事務執行以前這個(或這些) key 被其餘命令所改動,那麼事務將被打斷。
Info Client list Client kill ip:port config get * CONFIG RESETSTAT #重置統計 CONFIG GET/SET #動態修改 Dbsize #查看鍵的個數 FLUSHALL #清空全部數據 select 1 #切換到redis不一樣庫(16個) FLUSHDB #清空當前庫 MONITOR #監控實時指令 redis-cli -a 123 monitor >>/tmp/m.log & SHUTDOWN #關閉服務器 #關閉數據庫: redis-cli -a root shutdown
1)設置redis最大內存
config set maxmemory 102400000