本文已得到原做者霸都民工哥受權。mysql
REmote DIctionary Server(Redis) 是一個由 Salvatore Sanfilippo寫的 key-value 存儲系統。Redis 是一個開源的使用 ANSI C 語言編寫、遵照 BSD 協議、支持網絡、可基於內存亦可持久化的日誌型、Key-Value 數據庫,並提供多種語言的API。它一般被稱爲數據結構服務器,由於值(value)能夠是 字符串 (String), 哈希(Map), 列表 (list), 集合 (sets) 和 有序集合 (sorted sets) 等類型。linux
你們都知道了redis是基於 key-value 的 no sql 數據庫,所以,先來了解一下關於 key 相關的知識點:c++
一、任何 二進制的序列均可以做爲 key 使用
二、Redis 有 統一的規則來設計 key
三、對 key-value 容許的 最大長度是512MB
ActionScript Bash C C# C++ Clojure Common Lisp Crystal D Dart Elixir emacs lisp Erlang Fancy gawk GNU Prolog Go Haskell Haxe Io Java Javascript Julia Lua Matlab mruby Nim Node.js Objective-C OCaml Pascal Perl PHP Pure Data Python R Racket Rebol Ruby Rust Scala Scheme Smalltalk Swift Tcl VB VCL
一、最經常使用的就是 會話緩存
二、 消息隊列,好比支付
三、活動 排行榜或計數
四、 發佈、訂閱消息(消息通知)
五、 商品列表、評論列表等
關於redis安裝與相關的知識點介紹請參考 Nosql數據庫服務之redisgit
安裝的大概步驟以下:redis
Redis 是 c 語言開發的,安裝 redis 須要 c 語言的編譯環境sql
若是沒有 gcc 須要在線安裝:yum install gcc-c++數據庫
第一步:獲取源碼包:wget http://download.redis.io/releases/redis-3.0.0.tar.gz
第二步:解壓縮redis:tar zxvf redis-3.0.0.tar.gz
第三步:編譯。進入redis源碼目錄(cd redis-3.0.0)。執行 make
第四步:安裝。make install PREFIX=/usr/local/redis
#PREFIX參數指定redis的安裝目錄
Redis 一共支持五種數據類型api
一、 string(字符串)
二、 hash(哈希)
三、 list(列表)
四、 set(集合)
五、 zset(sorted set 有序集合)
它是 redis 最基本的數據類型,一個key對應一個value,須要注意是一個鍵值最大存儲512MB。緩存
127.0.0.1:6379> set key "hello world" OK 127.0.0.1:6379> get key "hello world" 127.0.0.1:6379> getset key "nihao" "hello world" 127.0.0.1:6379> mset key1 "hi" key2 "nihao" key3 "hello" OK 127.0.0.1:6379> get key1 "hi" 127.0.0.1:6379> get key2 "nihao" 127.0.0.1:6379> get key3 "hello"
相關命令介紹
set 爲一個 Key 設置 value(值)
get 得到某個 key 對應的 value(值)
getset 爲一個 Key 設置 value(值)並返回對應的值
mset 爲多個 key 設置 value(值)
redis hash 是一個鍵值對的集合, 是一個 string 類型的 field和value 的映射表,適合用於存儲對象安全
127.0.0.1:6379> hset redishash 1 "001" (integer) 1 127.0.0.1:6379> hget redishash 1 "001" 127.0.0.1:6379> hmset redishash 1 "001" 2 "002" OK 127.0.0.1:6379> hget redishash 1 "001" 127.0.0.1:6379> hget redishash 2 "002" 127.0.0.1:6379> hmget redishash 1 2 1) "001" 2) "002"
相關命令介紹
hset 將Key對應的 hash 中的 field 配置爲 value,若是 hash 不存則自動建立
hget 得到某個 hash 中的 field 配置的值
hmset 批量配置同一個 hash 中的多個 field 值
hmget 批量得到同一個 hash 中的多個 field 值
是 redis 簡單的字符串列表,它按插入順序排序
127.0.0.1:6379> lpush word hi (integer) 1 127.0.0.1:6379> lpush word hello (integer) 2 127.0.0.1:6379> rpush word world (integer) 3 127.0.0.1:6379> lrange word 0 2 1) "hello" 2) "hi" 3) "world" 127.0.0.1:6379> llen word (integer) 3
相關命令介紹
lpush 向指定的列表左側插入元素,返回插入後列表的長度
rpush 向指定的列表右側插入元素,返回插入後列表的長度
llen 返回指定列表的長度
lrange 返回指定列表中指定範圍的元素值
是string類型的無序集合,也不可重複
127.0.0.1:6379> sadd redis redisset (integer) 1 127.0.0.1:6379> sadd redis redisset1 (integer) 1 127.0.0.1:6379> sadd redis redisset2 (integer) 1 127.0.0.1:6379> smembers redis 1) "redisset1" 2) "redisset" 3) "redisset2" 127.0.0.1:6379> sadd redis redisset2 (integer) 0 127.0.0.1:6379> smembers redis 1) "redisset1" 2) "redisset" 3) "redisset2" 127.0.0.1:6379> smembers redis 1) "redisset1" 2) "redisset3" 3) "redisset" 4) "redisset2" 127.0.0.1:6379> srem redis redisset (integer) 1 127.0.0.1:6379> smembers redis 1) "redisset1" 2) "redisset3" 3) "redisset2"
相關命令介紹
sadd 添加一個 string 元素到 key 對應的 set 集合中,成功返回1,若是元素存在返回0
smembers 返回指定的集合中全部的元素
srem 刪除指定集合的某個元素
是 string 類型的有序集合,也不可重複
sorted set 中的每一個元素都須要指定一個分數,根據分數對元素進行升序排序,若是多個元素有相同的分數,則以字典序進行升序排序
sorted set 所以很是適合實現排名
127.0.0.1:6379> zadd nosql 0 001 (integer) 1 127.0.0.1:6379> zadd nosql 0 002 (integer) 1 127.0.0.1:6379> zadd nosql 0 003 (integer) 1 127.0.0.1:6379> zcount nosql 0 0 (integer) 3 127.0.0.1:6379> zcount nosql 0 3 (integer) 3 127.0.0.1:6379> zrem nosql 002 (integer) 1 127.0.0.1:6379> zcount nosql 0 3 (integer) 2 127.0.0.1:6379> zscore nosql 003 "0" 127.0.0.1:6379> zrangebyscore nosql 0 10 1) "001" 2) "003" 127.0.0.1:6379> zadd nosql 1 003 (integer) 0 127.0.0.1:6379> zadd nosql 1 004 (integer) 1 127.0.0.1:6379> zrangebyscore nosql 0 10 1) "001" 2) "003" 3) "004" 127.0.0.1:6379> zadd nosql 3 005 (integer) 1 127.0.0.1:6379> zadd nosql 2 006 (integer) 1 127.0.0.1:6379> zrangebyscore nosql 0 10 1) "001" 2) "003" 3) "004" 4) "006" 5) "005"
相關命令介紹
zadd 向指定的 sorteset 中添加1個或多個元素
zrem 從指定的 sorteset 中刪除1個或多個元素
zcount 查看指定的 sorteset 中指定分數範圍內的元素數量
zscore 查看指定的 sorteset 中指定分數的元素
zrangebyscore 查看指定的 sorteset 中指定分數範圍內的全部元素
127.0.0.1:6379> exists key (integer) 1 127.0.0.1:6379> exists key1 (integer) 1 127.0.0.1:6379> exists key100 (integer) 0 127.0.0.1:6379> get key "nihao,hello" 127.0.0.1:6379> get key1 "hi" 127.0.0.1:6379> del key1 (integer) 1 127.0.0.1:6379> get key1 (nil) 127.0.0.1:6379> rename key key0 OK 127.0.0.1:6379> get key (nil) 127.0.0.1:6379> get key0 "nihao,hello" 127.0.0.1:6379> type key0 string
exists: #確認key是否存在
del: #刪除key
expire: #設置Key過時時間(單位秒)
persist : #移除Key過時時間的配置
rename: #重命名key
type: #返回值的類型
127.0.0.1:6379> select 0 OK 127.0.0.1:6379> info # Server redis_version:3.0.6 redis_git_sha1:00000000 redis_git_dirty:0 redis_build_id:347e3eeef5029f3 redis_mode:standalone os:Linux 3.10.0-693.el7.x86_64 x86_64 arch_bits:64 multiplexing_api:epoll gcc_version:4.8.5 process_id:31197 run_id:8b6ec6ad5035f5df0b94454e199511084ac6fb12 tcp_port:6379 uptime_in_seconds:8514 uptime_in_days:0 hz:10 lru_clock:14015928 config_file:/usr/local/redis/redis.conf -------------------省略N行 127.0.0.1:6379> CONFIG GET 0 (empty list or set) 127.0.0.1:6379> CONFIG GET 15 (empty list or set)
slect : #選擇數據庫(數據庫編號0-15)
quit: #退出鏈接
info: #得到服務的信息與統計
monitor: #實時監控
config get: #得到服務配置
flushdb: #刪除當前選擇的數據庫中的 key
flushall: #刪除全部數據庫中的 key
Redis 發佈與訂閱(pub/sub)是它的一種消息通訊模式,一方發送信息,一方接收信息。
下圖是三個客戶端同時訂閱同一個頻道
下圖是有新信息發送給頻道1時,就會將消息發送給訂閱它的三個客戶端
Redis 事務能夠一次執行多條命令
一、發送 exec 命令前放入隊列緩存,結束事務
二、收到 exec 命令後執行事務操做,若是某一命令執行失敗,其它命令仍可繼續執行
三、一個事務執行的過程當中,其它客戶端提交的請求不會被插入到事務執行的命令列表中
一個事務經歷三個階段
開始事務(命令:multi)
命令執行
結束事務(命令:exec)
127.0.0.1:6379> MULTI OK 127.0.0.1:6379> set key key1 QUEUED 127.0.0.1:6379> get key QUEUED 127.0.0.1:6379> rename key key001 QUEUED 127.0.0.1:6379> exec 1) OK 2) "key1" 3) OK
能夠經過修改配置文件設備密碼參數來提升安全性
#requirepass foobared
去掉註釋#號就能夠配置密碼
沒有配置密碼的狀況下查詢以下
127.0.0.1:6379> CONFIG GET requirepass 1) "requirepass" 2) "
配置密碼以後,就須要進行認證
127.0.0.1:6379> CONFIG GET requirepass (error) NOAUTH Authentication required. 127.0.0.1:6379> AUTH foobared #認證 OK 127.0.0.1:6379> CONFIG GET requirepass 1) "requirepass" 2) "foobared"
Redis 持久有兩種方式:Snapshotting(快照),Append-only file(AOF)
一、將存儲在內存的數據以快照的方式寫入二進制文件中,如默認dump.rdb中
二、save 900 1
#900秒內若是超過1個Key被修改,則啓動快照保存
三、save 300 10
#300秒內若是超過10個Key被修改,則啓動快照保存
四、save 60 10000
#60秒內若是超過10000個Key被修改,則啓動快照保存
一、使用 AOF 持久時,服務會將每一個收到的寫命令經過 write 函數追加到文件中(appendonly.aof)
二、AOF 持久化存儲方式參數說明
appendonly yes : #開啓 AOF 持久化存儲方式
appendfsync always: #收到寫命令後就當即寫入磁盤,效率最差,效果最好
appendfsync everysec: #每秒寫入磁盤一次,效率與效果居中 appendfsync no: #徹底依賴 OS,效率最佳,效果無法保證
自帶相關測試工具
[root@test ~]# redis-benchmark --help Usage: redis-benchmark [-h <host>] [-p <port>] [-c <clients>] [-n <requests]> [-k <boolean>] -h <hostname> Server hostname (default 127.0.0.1) -p <port> Server port (default 6379) -s <socket> Server socket (overrides host and port) -a <password> Password for Redis Auth -c <clients> Number of parallel connections (default 50) -n <requests> Total number of requests (default 100000) -d <size> Data size of SET/GET value in bytes (default 2) -dbnum <db> SELECT the specified db number (default 0) -k <boolean> 1=keep alive 0=reconnect (default 1) -r <keyspacelen> Use random keys for SET/GET/INCR, random values for SADD Using this option the benchmark will expand the string __rand_int__ inside an argument with a 12 digits number in the specified range from 0 to keyspacelen-1. The substitution changes every time a command is executed. Default tests use this to hit random keys in the specified range. -P <numreq> Pipeline <numreq> requests. Default 1 (no pipeline). -q Quiet. Just show query/sec values --csv Output in CSV format -l Loop. Run the tests forever -t <tests> Only run the comma separated list of tests. The test names are the same as the ones produced as output. -I Idle mode. Just open N idle connections and wait. Examples: Run the benchmark with the default configuration against 127.0.0.1:6379: $ redis-benchmark Use 20 parallel clients, for a total of 100k requests, against 192.168.1.1: $ redis-benchmark -h 192.168.1.1 -p 6379 -n 100000 -c 20 Fill 127.0.0.1:6379 with about 1 million keys only using the SET test: $ redis-benchmark -t set -n 1000000 -r 100000000 Benchmark 127.0.0.1:6379 for a few commands producing CSV output: $ redis-benchmark -t ping,set,get -n 100000 --csv Benchmark a specific command line: $ redis-benchmark -r 10000 -n 10000 eval 'return redis.call("ping")' 0 Fill a list with 10000 random elements: $ redis-benchmark -r 10000 -n 10000 lpush mylist __rand_int__ On user specified command lines __rand_int__ is replaced with a random integer with a range of values selected by the -r option.
實際測試同時執行100萬的請求
[root@test ~]# redis-benchmark -n 1000000 -q PING_INLINE: 152578.58 requests per second PING_BULK: 150308.14 requests per second SET: 143266.47 requests per second GET: 148632.58 requests per second INCR: 145857.64 requests per second LPUSH: 143781.45 requests per second LPOP: 147819.66 requests per second SADD: 138350.86 requests per second SPOP: 134282.27 requests per second LPUSH (needed to benchmark LRANGE): 141302.81 requests per second LRANGE_100 (first 100 elements): 146756.67 requests per second LRANGE_300 (first 300 elements): 148104.27 requests per second LRANGE_500 (first 450 elements): 152671.75 requests per second LRANGE_600 (first 600 elements): 148104.27 requests per second MSET (10 keys): 132731.62 requests per second
Redis 自動備份有兩種方式
第一種是經過 dump.rdb 文件實現備份
第二種使用 aof 文件實現自動備份
Redis服務默認的自動文件備份方式(AOF 沒有開啓的狀況下),在服務啓動時,就會自動從 dump.rdb 文件中去加載數據。
**具體配置在 redis.conf
save 900 1
save 300 10
save 60 10000**
也能夠手工執行save命令實現手動備份
127.0.0.1:6379> set name key OK 127.0.0.1:6379> SAVE OK 127.0.0.1:6379> set name key1 OK 127.0.0.1:6379> BGSAVE Background saving started
redis快照到dump文件時,會自動生成 dump.rdb 的文件
# The filename where to dump the DB dbfilename dump.rdb -rw-r--r-- 1 root root 253 Apr 17 20:17 dump.rdb
SAVE 命令表示使用主進程將當前數據庫快照到 dump 文件
BGSAVE 命令表示,主進程會 fork 一個子進程來進行快照備份
兩種備份不一樣之處,前者會阻塞主進程,後者不會。
恢復舉例
# Note that you must specify a directory here, not a file name. dir /usr/local/redisdata/ 備份文件存儲路徑 127.0.0.1:6379> CONFIG GET dir 1) "dir" 2) "/usr/local/redisdata" 127.0.0.1:6379> set key 001 OK 127.0.0.1:6379> set key1 002 OK 127.0.0.1:6379> set key2 003 OK 127.0.0.1:6379> save OK
將備份文件備份到其它目錄
[root@test ~]# ll /usr/local/redisdata/ total 4 -rw-r--r-- 1 root root 49 Apr 17 21:24 dump.rdb [root@test ~]# date Tue Apr 17 21:25:38 CST 2018 [root@test ~]# cp ./dump.rdb /tmp/
刪除數據
127.0.0.1:6379> del key1 (integer) 1 127.0.0.1:6379> get key1 (nil)
關閉服務,將原備份文件拷貝回 save 備份目錄
[root@test ~]# redis-cli -a foobared shutdown [root@test ~]# lsof -i :6379 [root@test ~]# cp /tmp/dump.rdb /usr/local/redisdata/ cp: overwrite ‘/usr/local/redisdata/dump.rdb’? y [root@test ~]# redis-server /usr/local/redis/redis.conf & [1] 31487
登陸查看數據是否恢復
[root@test ~]# redis-cli -a foobared 127.0.0.1:6379> mget key key1 key2 1) "001" 2) "002" 3) "003"
redis 服務默認是關閉此項配置
###### APPEND ONLY MODE ########## appendonly no # The name of the append only file (default: "appendonly.aof") appendfilename "appendonly.aof" # appendfsync always appendfsync everysec # appendfsync no
配置文件的相關參數,前面已經詳細介紹過。
AOF 文件備份,是備份全部的歷史記錄以及執行過的命令,和 mysql binlog 很類似,在恢復時就是從新執次一次以前執行的命令,須要注意的就是在恢復以前,和數據庫恢復同樣須要手工刪除執行過的 del 或誤操做的命令。
AOF 與 dump 備份不一樣
一、aof 文件備份與 dump 文件備份不一樣
二、服務讀取文件的優先順序不一樣,會按照如下優先級進行啓動
若是隻配置 AOF,重啓時加載 AOF 文件恢復數據
若是同時 配置了 RBD 和 AOF,啓動是隻加載 AOF 文件恢復數據
若是隻配置 RBD,啓動時將加載 dump 文件恢復數據
注意:只要配置了 aof,可是沒有 aof 文件,這個時候啓動的數據庫會是空的
**hash-max-ziplist-entries 512
hash-max-ziplist-value 64
list-max-ziplist-entries 512
list-max-ziplist-value 64**
#list的成員與值都不太大的時候會採用緊湊格式來存儲,相對內存開銷也較小
在linux環境運行 Redis 時,若是系統的內存比較小,這個時候自動備份會有可能失敗,須要修改系統的 vm.overcommit_memory 參數,這個參數是 linux 系統的內存分配策略
0 表示內核將檢查是否有足夠的可用內存供應用進程使用;若是有足夠的可用內存,內存申請容許;不然,內存申請失敗,並把錯誤返回給應用進程。
1 表示內核容許分配全部的物理內存,而無論當前的內存狀態如何。
2 表示內核容許分配超過全部物理內存和交換空間總和的內存 Redis 官方的說明是,建議將 vm.overcommit_memory 的值修改成1,能夠用下面幾種方式進行修改:
(1)編輯/etc/sysctl.conf 改vm.overcommit_memory=1,而後 sysctl -p 使配置文件生效
(2)sysctl vm.overcommit_memory=1
(3)echo 1 > /proc/sys/vm/overcommit_memory
定時快照:效率不高,會丟失數據
AOF:保持數據完整性(一個實例的數量不要太大2G最大)
優化總結
1)根據業務須要選擇合適的數據類型
2)當業務場景不需持久化時就關閉全部持久化方式(採用 ssd 磁盤來提高效率)
3)不要使用虛擬內存的方式,每秒實時寫入 AOF
4)不要讓 REDIS 所在的服務器物理內存使用超過內存總量的3/5
5)要使用 maxmemory
6)大數據量按業務分開使用多個 redis 實例
集羣是將多個 redis 實例集中在一塊兒,實現同一業務需求,或者實現高可用與負載均衡
到底有哪些集羣方案呢??
1)sentinel 負責對集羣中的主從服務監控、提醒和自動故障轉移
2)redis 集羣負責對外提供服務
關於 redis sentinel cluster 集羣配置可參考
Redis Cluster 是 Redis 的分佈式解決方案,在 Redis 3.0版本正式推出的,有效解決了 Redis 分佈式方面的需求。當遇到單機內存、併發、流量等瓶頸時,能夠採用 Cluster 架構達到負載均衡的目的。
1)官方推薦,毋庸置疑。
2)去中心化,集羣最大可增長1000個節點,性能隨節點增長而線性擴展。
3)管理方便,後續可自行增長或摘除節點,移動分槽等等。
4)簡單,易上手。
做者:霸都民工哥
連接:https://mp.weixin.qq.com/s/R2...
來源:微信公衆號
更多相關閱讀:
阿里雲技術專家仲肥:瞭解並使用Redis 4.0
高可用Redis服務架構分析與搭建
Nginx+Redis+Ehcache:大型高併發與高可用的三層緩存架構總結
若是你還想了解更多,想和技術同僚分享切磋,可掃下方二維碼,回覆yw,加入掘金運維技術交流羣