下載:mysql
wget http://download.redis.io/releases/redis-3.2.12.tar.gz
解壓:linux
上傳至 /data tar xzf redis-3.2.12.tar.gz mv redis-3.2.12 redis
安裝:面試
cd redis make
啓動:redis
src/redis-server &
環境變量:sql
vim /etc/profile export PATH=/data/redis/src:$PATH source /etc/profile
redis-cli shutdown mkdir /data/6379 cat >>/data/6379/redis.conf <<EOF daemonize yes port 6379 logfile /data/6379/redis.log dir /data/6379 dbfilename dump.rdb EOF
重啓redis數據庫
redis-cli shutdown redis-server /data/6379/redis.conf netstat -lnp|grep 63
redis.conf 是否後臺運行: daemonize yes 默認端口: port 6379 日誌文件位置 logfile /var/log/redis.log 持久化文件存儲位置 dir /data/6379 RDB持久化數據文件: dbfilename dump.rdb
redis默認開啓了保護模式,只容許本地迴環地址登陸並訪問數據庫。vim
禁止protected-mode緩存
protected-mode yes/no (保護模式,是否只容許本地訪問)安全
(1)Bind :指定IP進行監聽服務器
echo "bind 10.0.0.200 127.0.0.1" >>/data/6379/redis.conf
(2)增長requirepass {password}
echo "requirepass 123" >>/data/6379/redis.conf
重啓redis
redis-cli shutdown redis-server /data/6379/redis.conf
驗證:
方法一: [root@db03 ~]# redis-cli -a 123 127.0.0.1:6379> set name zhangsan OK 127.0.0.1:6379> exit 方法二: [root@db03 ~]# redis-cli 127.0.0.1:6379> auth 123 OK 127.0.0.1:6379> set a b
CONFIG GET * CONFIG GET requirepass CONFIG SET requirepass 123
做用:能夠有效防止在redis宕機後,緩存失效的問題
方式:RDB和AOF持久化
RDB持久化:能夠在指定的時間間隔內生成數據集的時間點快照(point-in-time snapshot)
優勢:速度快,適合用作備份,主從複製也是基於RDB持久化功能實現的。
缺點:會有數據丟失
rdf持久化核心配置參數:
vim /data/6379/redis.conf dir /data/6379 dbfilename dump.rdb save 900 1 save 300 10 save 60 10000 配置分別表示: 900秒(15分鐘)內有1個更改 300秒(5分鐘)內有10個更改 60秒內有10000個更改
AOF 持久化(append-only log file)
記錄服務器執行的全部寫操做命令,並在服務器啓動時,經過從新執行這些命令來還原數據集。 AOF 文件中的命令所有以 Redis 協議的格式來保存,新命令會被追加到文件的末尾。 優勢:能夠最大程度保證數據不丟 缺點:日誌記錄量級比較大
AOF持久化配置
appendonly yes appendfsync everysec appendfsync always appendfsync no vim /data/6379/redis.conf appendonly yes appendfsync everysec
面試題:
redis 持久化方式有哪些?有什麼區別? rdb:基於快照的持久化,速度更快,通常用做備份,主從複製也是依賴於rdb持久化功能 aof:以追加的方式記錄redis操做日誌的文件。能夠最大程度的保證redis數據安全,相似於mysql的binlog
String : 字符類型 Hash: 字典類型 List: 列表 Set: 集合 Sorted set: 有序集合
KEYS * keys a keys a* 查看已存在全部鍵的名字 **** TYPE 返回鍵所存儲值的類型 **** EXISTS 檢查是否存在 ***** EXPIRE\ PEXPIRE 以秒\毫秒設定生存時間 *** TTL\ PTTL 以秒\毫秒爲單位返回生存時間 *** PERSIST 取消生存實現設置 *** DEL 刪除一個key RENAME 變動KEY名
例子:
127.0.0.1:6379> set name zhangsan 127.0.0.1:6379> EXPIRE name 60 (integer) 1 127.0.0.1:6379> ttl name (integer) 57 127.0.0.1:6379> set a b ex 60 OK 127.0.0.1:6379> ttl a 127.0.0.1:6379> PERSIST a (integer) 1 127.0.0.1:6379> ttl a (integer) -1
應用場景:常規計數:微博數,粉絲數等。訂閱、禮物、頁遊。key:value
增:
set mykey "test" 爲鍵設置新值,並覆蓋原有值 getset mycounter 0 設置值,取值同時進行 setex mykey 10 "hello" 設置指定 Key 的過時時間爲10秒,在存活時間能夠獲取value setnx mykey "hello" 若該鍵不存在,則爲鍵設置新值 mset key3 "zyx" key4 "xyz" 批量設置鍵
刪
del mykey 刪除已有鍵
改
append mykey "hello" 若該鍵並不存在,返回當前 Value 的長度 該鍵已經存在,返回追加後 Value的長度 incr mykey 值增長1,若該key不存在,建立key,初始值設爲0,增長後結果爲1 decrby mykey 5 值減小5 setrange mykey 20 dd 把第21和22個字節,替換爲dd, 超過value長度,自動補0
查
exists mykey 判斷該鍵是否存在,存在返回 1,不然返回0 get mykey 獲取Key對應的value strlen mykey 獲取指定 Key 的字符長度 ttl mykey 查看一下指定 Key 的剩餘存活時間(秒數) getrange mykey 1 20 獲取第2到第20個字節,若20超過value長度,則截取第2個和後面全部的 mget key3 key4 批量獲取鍵
hash類型(字典類型)
應用場景:
存儲部分變動的數據,如用戶信息等。
最接近mysql表結構的一種類型
存數據:
hmset stu id 101 name zs age 18 id name age 101 zs 18
取數據:
HMGET stu id name age -----> select id,name,age from stu; hgetall stu ------> select * from stu;
增
hset myhash field1 "s" 若字段field1不存在,建立該鍵及與其關聯的Hashes, Hashes中,key爲field1 ,並設value爲s ,若存在會覆蓋原value hsetnx myhash field1 s 若字段field1不存在,建立該鍵及與其關聯的Hashes, Hashes中,key爲field1 ,並設value爲s, 若字段field1存在,則無效 hmset myhash field1 "hello" field2 "world 一次性設置多個字段
刪
hdel myhash field1 刪除 myhash 鍵中字段名爲 field1 的字段 del myhash 刪除鍵
改
hincrby myhash field 1 給field的值加1
查
hget myhash field1 獲取鍵值爲 myhash,字段爲 field1 的值 hlen myhash 獲取myhash鍵的字段數量 hexists myhash field1 判斷 myhash 鍵中是否存在字段名爲 field1 的字段 hmget myhash field1 field2 field3 一次性獲取多個字段 hgetall myhash 返回 myhash 鍵的全部字段及其值 hkeys myhash 獲取myhash 鍵中全部字段的名字 hvals myhash 獲取 myhash 鍵中全部字段的值
應用場景
消息隊列系統 好比sina微博:在Redis中咱們的最新微博ID使用了常駐緩存,這是一直更新的。 可是作了限制不能超過5000個ID,所以獲取ID的函數會一直詢問Redis。 只有在start/count參數超出了這個範圍的時候,才須要去訪問數據庫。 系統不會像傳統方式那樣「刷新」緩存,Redis實例中的信息永遠是一致的。 SQL數據庫(或是硬盤上的其餘類型數據庫)只是在用戶須要獲取「很遠」的數據時纔會被觸發, 而主頁或第一個評論頁是不會麻煩到硬盤上的數據庫了。
微信朋友圈:
127.0.0.1:6379> LPUSH wechat "today is nice day !" 127.0.0.1:6379> LPUSH wechat "today is bad day !" 127.0.0.1:6379> LPUSH wechat "today is good day !" 127.0.0.1:6379> LPUSH wechat "today is rainy day !" 127.0.0.1:6379> LPUSH wechat "today is friday !"
增
lpush mykey a b 若key不存在,建立該鍵及與其關聯的List,依次插入a ,b, 若List類型的key存在,則插入value中 lpushx mykey2 e 若key不存在,此命令無效, 若key存在,則插入value中 linsert mykey before a a1 在 a 的前面插入新元素 a1 linsert mykey after e e2 在e 的後面插入新元素 e2 rpush mykey a b 在鏈表尾部先插入b,在插入a rpushx mykey e 若key存在,在尾部插入e, 若key不存在,則無效 rpoplpush mykey mykey2 將mykey的尾部元素彈出,再插入到mykey2 的頭部(原子性的操做)
刪
del mykey 刪除已有鍵 lrem mykey 2 a 從頭部開始找,按前後順序,值爲a的元素,刪除數量爲2個,若存在第3個,則不刪除 ltrim mykey 0 2 從頭開始,索引爲0,1,2的3個元素,其他所有刪除
改
lset mykey 1 e 從頭開始, 將索引爲1的元素值,設置爲新值 e,若索引越界,則返回錯誤信息 rpoplpush mykey mykey 將 mykey 中的尾部元素移到其頭部
查
lrange mykey 0 -1 取鏈表中的所有元素,其中0表示第一個元素,-1表示最後一個元素。 lrange mykey 0 2 從頭開始,取索引爲0,1,2的元素 lrange mykey 0 0 從頭開始,取第一個元素,從第0個開始,到第0個結束 lpop mykey 獲取頭部元素,而且彈出頭部元素,出棧 lindex mykey 6 從頭開始,獲取索引爲6的元素 若下標越界,則返回nil
應用場景:
案例:在微博應用中,能夠將一個用戶全部的關注人存在一個集合中,將其全部粉絲存在一個集合。
Redis還爲集合提供了求交集、並集、差集等操做,能夠很是方便的實現如共同關注、共同喜愛、二度好友等功能,
對上面的全部集合操做,你還可使用不一樣的命令選擇將結果返回給客戶端仍是存集到一個新的集合中。
增
sadd myset a b c 若key不存在,建立該鍵及與其關聯的set,依次插入a ,b,若key存在,則插入value中,若a 在myset中已經存在,則插入了 d 和 e 兩個新成員。
刪
spop myset 尾部的b被移出,事實上b並非以前插入的第一個或最後一個成員 srem myset a d f 若f不存在, 移出 a、d ,並返回2
改
smove myset myset2 a 將a從 myset 移到 myset2,
查
sismember myset a 判斷 a 是否已經存在,返回值爲 1 表示存在。 smembers myset 查看set中的內容 scard myset 獲取Set 集合中元素的數量 srandmember myset 隨機的返回某一成員 sdiff myset1 myset2 myset3 1和2獲得一個結果,拿這個集合和3比較,得到每一個獨有的值 sdiffstore diffkey myset myset2 myset3 3個集和比較,獲取獨有的元素,並存入diffkey 關聯的Set中 sinter myset myset2 myset3 得到3個集合中都有的元素 sinterstore interkey myset myset2 myset3 把交集存入interkey 關聯的Set中 sunion myset myset2 myset3 獲取3個集合中的成員的並集 sunionstore unionkey myset myset2 myset3 把並集存入unionkey 關聯的Set中
127.0.0.1:6379> zadd topN 0 smlt 0 fskl 0 fshkl 0 lzlsfs 0 wdhbx 0 wxg (integer) 6 127.0.0.1:6379> ZINCRBY topN 100000 smlt "100000" 127.0.0.1:6379> ZINCRBY topN 10000 fskl "10000" 127.0.0.1:6379> ZINCRBY topN 1000000 fshkl "1000000" 127.0.0.1:6379> ZINCRBY topN 100 lzlsfs "100" 127.0.0.1:6379> ZINCRBY topN 10 wdhbx "10" 127.0.0.1:6379> ZINCRBY topN 100000000 wxg "100000000" 127.0.0.1:6379> ZREVRANGE topN 0 2 1) "wxg" 2) "fshkl" 3) "smlt" 127.0.0.1:6379> ZREVRANGE topN 0 2 withscores 1) "wxg" 2) "100000000" 3) "fshkl" 4) "1000000" 5) "smlt" 6) "100000" 127.0.0.1:6379>
增
zadd myzset 2 "two" 3 "three" 添加兩個分數分別是 2 和 3 的兩個成員
刪
zrem myzset one two 刪除多個成員變量,返回刪除的數量
改
zincrby myzset 2 one 將成員 one 的分數增長 2,並返回該成員更新後的分數
查
zrange myzset 0 -1 WITHSCORES 返回全部成員和分數,不加WITHSCORES,只返回成員 zrank myzset one 獲取成員one在Sorted-Set中的位置索引值。0表示第一個位置 zcard myzset 獲取 myzset 鍵中成員的數量 zcount myzset 1 2 獲取分數知足表達式 1 <= score <= 2 的成員的數量 zscore myzset three 獲取成員 three 的分數 zrangebyscore myzset 1 2 獲取分數知足表達式 1 < score <= 2 的成員 #-inf 表示第一個成員,+inf最後一個成員 #limit限制關鍵字 #2 3 是索引號 zrangebyscore myzset -inf +inf limit 2 3 返回索引是2和3的成員 zremrangebyscore myzset 1 2 刪除分數 1<= score <= 2 的成員,並返回實際刪除的數量 zremrangebyrank myzset 0 1 刪除位置索引知足表達式 0 <= rank <= 1 的成員 zrevrange myzset 0 -1 WITHSCORES 按位置索引從高到低,獲取全部成員和分數 #原始成員:位置索引從小到大 one 0 two 1 #執行順序:把索引反轉 位置索引:從大到小 one 1 two 0 #輸出結果: two one zrevrange myzset 1 3 獲取位置索引,爲1,2,3的成員 #相反的順序:從高到低的順序 zrevrangebyscore myzset 3 0 獲取分數 3>=score>=0的成員並以相反的順序輸出 zrevrangebyscore myzset 4 0 limit 1 2 獲取索引是1和2的成員,並反轉位置索引
PUBLISH channel msg 將信息 message 發送到指定的頻道 channel SUBSCRIBE channel [channel ...] 訂閱頻道,能夠同時訂閱多個頻道 UNSUBSCRIBE [channel ...] 取消訂閱指定的頻道, 若是不指定頻道,則會取消訂閱全部頻道 PSUBSCRIBE pattern [pattern ...] 訂閱一個或多個符合給定模式的頻道,每一個模式以 * 做爲匹配符,好比 it* 匹配所 有以 it 開頭的頻道( it.news 、 it.blog 、 it.tweets 等等), news.* 匹配全部 以 news. 開頭的頻道( news.it 、 news.global.today 等等),諸如此類 PUNSUBSCRIBE [pattern [pattern ...]] 退訂指定的規則, 若是沒有參數則會退訂全部規則 PUBSUB subcommand [argument [argument ...]] 查看訂閱與發佈系統狀態
注意:使用發佈訂閱模式實現的消息隊列,當有客戶端訂閱channel後只能收到後續發佈到該頻道的消息,以前發送的不會緩存,必須Provider和Consumer同時在線。
發佈訂閱例子:
窗口1: 127.0.0.1:6379> SUBSCRIBE baodi 窗口2: 127.0.0.1:6379> PUBLISH baodi "jin tian zhen kaixin!" 訂閱多頻道: 窗口1: 127.0.0.1:6379> PSUBSCRIBE wang* 窗口2: 127.0.0.1:6379> PUBLISH wangbaoqiang "jintian zhennanshou "
redis的事務是基於隊列實現的。mysql的事務是基於事務日誌實現的。
開啓事務功能時(multi)
multi command1 command2 command3 command4 4條語句做爲一個組,並無真正執行,而是被放入同一隊列中。 若是,這是執行discard,會直接丟棄隊列中全部的命令,而不是作回滾。 exec 當執行exec時,對列中全部操做,要麼全成功要麼全失敗
一、在開啓主從複製的時候,使用的是RDB方式的,同步主從數據的
二、同步開始以後,經過主庫命令傳播的方式,主動的複製方式實現
三、2.8之後實現PSYNC的機制,實現斷線重連
主從數據一致性保證:
min-slaves-to-write 1 min-slaves-max-lag
這個特性的運做原理:
從服務器以每秒一次的頻率 PING 主服務器一次, 並報告複製流的處理狀況。 主服務器會記錄各個從服務器最後一次向它發送 PING 的時間。 用戶能夠經過配置, 指定網絡延遲的最大值 min-slaves-max-lag , 以及執行寫操做所需的至少從服務器數量 min-slaves-to-write 。 若是至少有 min-slaves-to-write 個從服務器, 而且這些服務器的延遲值都少於 min-slaves-max-lag秒, 那麼主服務器就會執行客戶端請求的寫操做。 你能夠將這個特性看做 CAP 理論中的 C 的條件放寬版本: 儘管不能保證寫操做的持久性, 但起碼丟失數據的窗口會被嚴格限制在指定的秒數中。 另外一方面, 若是條件達不到 min-slaves-to-write 和 min-slaves-max-lag 所指定的條件, 那麼寫操做就不會被執行 主服務器會向請求執行寫操做的客戶端返回一個錯誤。
問題:主庫是否要開啓持久化?
若是不開有可能,主庫重啓操做,形成全部主從數據丟失!
一、環境:準備兩個或兩個以上redis實例
mkdir /data/638{0..2}
配置文件示例:
cat >> /data/6380/redis.conf << EOF port 6380 daemonize yes pidfile /data/6380/redis.pid loglevel notice logfile "/data/6380/redis.log" dbfilename dump.rdb dir /data/6380 requirepass 123 masterauth 123 EOF cp /data/6380/redis.conf /data/6381/redis.conf cp /data/6380/redis.conf /data/6382/redis.conf sed -i 's#6380#6381#g' /data/6381/redis.conf sed -i 's#6380#6382#g' /data/6382/redis.conf
啓動:
redis-server /data/6380/redis.conf redis-server /data/6381/redis.conf redis-server /data/6382/redis.conf netstat -lnp|grep 638 主節點:6380 從節點:638一、6382
二、開啓主從:6381/6382命令行:
redis-cli -p 6381 -a 123 SLAVEOF 127.0.0.1 6380 redis-cli -p 6382 -a 123 SLAVEOF 127.0.0.1 6380
三、查詢主從狀態
redis-cli -p 6380 -a 123 info replication redis-cli -p 6381 -a 123 info replication redis-cli -p 6382 -a 123 info replication
四、從庫切爲主庫,模擬主庫故障
redis-cli -p 6380 -a 123 shutdown redis-cli -p 6381 -a 123 info replication slaveof no one 6382鏈接到6381: [root@db03 ~]# redis-cli -p 6382 -a 123 127.0.0.1:6382> SLAVEOF no one 127.0.0.1:6382> SLAVEOF 127.0.0.1 6381
redis-sentinel(哨兵)
一、監控
二、自動選主,切換(6381 slaveof no one)
三、2號從庫(6382)指向新主庫(6381)
四、應用透明
sentinel搭建過程
mkdir /data/26380 cd /data/26380 cat >> sentinel.conf << EOF port 26380 dir "/data/26380" sentinel monitor mymaster 127.0.0.1 6380 1 sentinel down-after-milliseconds mymaster 5000 sentinel auth-pass mymaster 123 EOF
啓動:
redis-sentinel /data/26380/sentinel.conf &
若是有問題:
一、從新準備1主2從環境
二、kill掉sentinel進程
三、刪除sentinel目錄下的全部文件
四、從新搭建sentinel
停主庫測試:
[root@db01 ~]# redis-cli -p 6380 shutdown [root@db01 ~]# redis-cli -p 6381 info replication 啓動源主庫(6380),看狀態。
Sentinel管理命令:
redis-cli -p 26380 PING :返回 PONG 。 SENTINEL masters :列出全部被監視的主服務器 SENTINEL slaves <master name> SENTINEL get-master-addr-by-name <master name> : 返回給定名字的主服務器的 IP 地址和端口號。 SENTINEL reset <pattern> : 重置全部名字和給定模式 pattern 相匹配的主服務器。 SENTINEL failover <master name> : 當主服務器失效時, 在不詢問其餘 Sentinel 意見的狀況下, 強制開始一次自動故障遷移。
高性能:
一、在多分片節點中,將16384個槽位,均勻分佈到多個分片節點中
二、存數據時,將key作crc16(key),而後和16384進行取模,得出槽位值(0-16383之間)
三、根據計算得出的槽位值,找到相對應的分片節點的主節點,存儲到相應槽位上
四、若是客戶端當時鏈接的節點不是未來要存儲的分片節點,分片集羣會將客戶端鏈接切換至真正存儲節點進行數據存儲
高可用:
在搭建集羣時,會爲每個分片的主節點,對應一個從節點,實現slaveof的功能,同時當主節點down,實現相似於sentinel的自動failover的功能。
一、redis會有多組分片構成(3組)
二、redis cluster 使用固定個數的slot存儲數據(一共16384slot)
三、每組分片分得1/3 slot個數(0-5500 5501-11000 11001-16383)
四、基於CRC16(key) % 16384 ====》值 (槽位號)
規劃、搭建過程:
6個redis實例,通常會放到3臺硬件服務器 注:在企業規劃中,一個分片的兩個分到不一樣的物理機,防止硬件主機宕機形成的整個分片數據丟失。