REmote DIctionary Server(Redis) 是一個由Salvatore Sanfilippo寫的key-value存儲系統。Redis是一個開源的使用ANSI C語言編寫、遵照BSD協議、支持網絡、可基於內存亦可持久化的日誌型、Key-Value數據庫,並提供多種語言的API。它一般被稱爲數據結構服務器,由於值(value)能夠是 字符串(String), 哈希(Map), 列表(list), 集合(sets) 和 有序集合(sorted sets)等類型。 你們都知道了redis是基於key-value的no sql數據庫,所以,先來了解一下關於key相關的知識點mysql
一、任何二進制的序列均可以做爲key使用 二、Redis有統一的規則來設計key 三、對key-value容許的最大長度是512MBlinux
ActionScript Bash C C# C++ Clojure Common Lisp
Crystal D Dart Elixir emacs lisp Erlang Fancy
gawk GNU Prolog Go Haskell Haxe Io Java Javascript
Julia Lua Matlab mruby Nim Node.js Objective-C
OCaml Pascal Perl PHP Pure Data Python R Racket
Rebol Ruby Rust Scala Scheme Smalltalk Swift Tcl VB VCL*
複製代碼
一、最經常使用的就是會話緩存 二、消息隊列,好比支付 三、活動排行榜或計數 四、發佈、訂閱消息(消息通知) 五、商品列表、評論列表等c++
Redis是c語言開發的,安裝redis須要c語言的編譯環境 若是沒有gcc須要在線安裝:yum install gcc-c++git
第一步:獲取源碼包:wget http://download.redis.io/releases/redis-3.0.0.tar.gz 第二步:解壓縮redis:tar zxvf redis-3.0.0.tar.gz 第三步:編譯。進入redis源碼目錄(cd redis-3.0.0)。執行 make 第四步:安裝。make install PREFIX=/usr/local/redis #PREFIX參數指定redis的安裝目錄redis
Redis一共支持五種數據類型sql
一、string(字符串) 二、hash(哈希) 三、list(列表) 四、set(集合) 五、zset(sorted set 有序集合)數據庫
它是redis最基本的數據類型,一個key對應一個value,須要注意是一個鍵值最大存儲512MB。api
128.127.0.0.1:6379> set key "hello world"
OK
127.0.0.1:6379> get key
"hello world"
127.0.0.1:6379> getset key "nihao"
"hello world"
127.0.0.1:6379> mset key1 "hi" key2 "nihao" key3 "hello"
OK
127.0.0.1:6379> get key1
"hi"
127.0.0.1:6379> get key2
"nihao"
127.0.0.1:6379> get key3
"hello"
複製代碼
set 爲一個Key設置value(值) get 得到某個key對應的value(值) getset 爲一個Key設置value(值)並返回對應的值 mset 爲多個key設置value(值)緩存
redis hash是一個鍵值對的集合, 是一個string類型的field和value的映射表,適合用於存儲對象安全
128.127.0.0.1:6379> hset redishash 1 "001"
(integer) 1
127.0.0.1:6379> hget redishash 1
"001"
127.0.0.1:6379> hmset redishash 1 "001" 2 "002"
OK
127.0.0.1:6379> hget redishash 1
"001"
127.0.0.1:6379> hget redishash 2
"002"
127.0.0.1:6379> hmget redishash 1 2
1) "001"
2) "002"
複製代碼
hset 將Key對應的hash中的field配置爲value,若是hash不存則自動建立, hget 得到某個hash中的field配置的值 hmset 批量配置同一個hash中的多個field值 hmget 批量得到同一個hash中的多個field值
是redis簡單的字符串列表,它按插入順序排序
128.127.0.0.1:6379> lpush word hi
(integer) 1
127.0.0.1:6379> lpush word hello
(integer) 2
127.0.0.1:6379> rpush word world
(integer) 3
127.0.0.1:6379> lrange word 0 2
1) "hello"
2) "hi"
3) "world"
127.0.0.1:6379> llen word
(integer) 3
複製代碼
lpush 向指定的列表左側插入元素,返回插入後列表的長度 rpush 向指定的列表右側插入元素,返回插入後列表的長度 llen 返回指定列表的長度 lrange 返回指定列表中指定範圍的元素值
是string類型的無序集合,也不可重複
128.127.0.0.1:6379> sadd redis redisset
(integer) 1
127.0.0.1:6379> sadd redis redisset1
(integer) 1
127.0.0.1:6379> sadd redis redisset2
(integer) 1
127.0.0.1:6379> smembers redis
1) "redisset1"
2) "redisset"
3) "redisset2"
127.0.0.1:6379> sadd redis redisset2
(integer) 0
127.0.0.1:6379> smembers redis
1) "redisset1"
2) "redisset"
3) "redisset2"
127.0.0.1:6379> smembers redis
1) "redisset1"
2) "redisset3"
3) "redisset"
4) "redisset2"
127.0.0.1:6379> srem redis redisset
(integer) 1
127.0.0.1:6379> smembers redis
1) "redisset1"
2) "redisset3"
3) "redisset2"
複製代碼
sadd 添加一個string元素到key對應的set集合中,成功返回1,若是元素存在返回0 smembers 返回指定的集合中全部的元素 srem 刪除指定集合的某個元素
是string類型的有序集合,也不可重複 sorted set中的每一個元素都須要指定一個分數,根據分數對元素進行升序排序 若是多個元素有相同的分數,則以字典序進行升序排序 sorted set 所以很是適合實現排名
128.127.0.0.1:6379> zadd nosql 0 001
(integer) 1
127.0.0.1:6379> zadd nosql 0 002
(integer) 1
127.0.0.1:6379> zadd nosql 0 003
(integer) 1
127.0.0.1:6379> zcount nosql 0 0
(integer) 3
127.0.0.1:6379> zcount nosql 0 3
(integer) 3
127.0.0.1:6379> zrem nosql 002
(integer) 1
127.0.0.1:6379> zcount nosql 0 3
(integer) 2
127.0.0.1:6379> zscore nosql 003
"0"
127.0.0.1:6379> zrangebyscore nosql 0 10
1) "001"
2) "003"
127.0.0.1:6379> zadd nosql 1 003
(integer) 0
127.0.0.1:6379> zadd nosql 1 004
(integer) 1
127.0.0.1:6379> zrangebyscore nosql 0 10
1) "001"
2) "003"
3) "004"
127.0.0.1:6379> zadd nosql 3 005
(integer) 1
127.0.0.1:6379> zadd nosql 2 006
(integer) 1
127.0.0.1:6379> zrangebyscore nosql 0 10
1) "001"
2) "003"
3) "004"
4) "006"
5) "005"
複製代碼
zadd 向指定的sorteset中添加1個或多個元素 zrem 從指定的sorteset中刪除1個或多個元素 zcount 查看指定的sorteset中指定分數範圍內的元素數量 zscore 查看指定的sorteset中指定分數的元素 zrangebyscore 查看指定的sorteset中指定分數範圍內的全部元素
128.127.0.0.1:6379> exists key
(integer) 1
127.0.0.1:6379> exists key1
(integer) 1
127.0.0.1:6379> exists key100
(integer) 0
127.0.0.1:6379> get key
"nihao,hello"
127.0.0.1:6379> get key1
"hi"
127.0.0.1:6379> del key1
(integer) 1
127.0.0.1:6379> get key1
(nil)
127.0.0.1:6379> rename key key0
OK
127.0.0.1:6379> get key
(nil)
127.0.0.1:6379> get key0
"nihao,hello"
127.0.0.1:6379> type key0
string
複製代碼
exists 確認key是否存在 del 刪除key expire 設置Key過時時間(單位秒) persist 移除Key過時時間的配置 rename 重命名key type 返回值的類型
128.127.0.0.1:6379> select 0
OK
127.0.0.1:6379> info
# Server
redis_version:3.0.6
redis_git_sha1:00000000
redis_git_dirty:0
redis_build_id:347e3eeef5029f3
redis_mode:standalone
os:Linux 3.10.0-693.el7.x86_64 x86_64
arch_bits:64
multiplexing_api:epoll
gcc_version:4.8.5
process_id:31197
run_id:8b6ec6ad5035f5df0b94454e199511084ac6fb12
tcp_port:6379
uptime_in_seconds:8514
uptime_in_days:0
hz:10
lru_clock:14015928
config_file:/usr/local/redis/redis.conf
-------------------省略N行
127.0.0.1:6379> CONFIG GET 0
(empty list or set)
127.0.0.1:6379> CONFIG GET 15
(empty list or set)
複製代碼
slect 選擇數據庫(數據庫編號0-15) quit 退出鏈接 info 得到服務的信息與統計 monitor 實時監控 config get 得到服務配置 flushdb 刪除當前選擇的數據庫中的key flushall 刪除全部數據庫中的key
Redis發佈與訂閱(pub/sub)是它的一種消息通訊模式,一方發送信息,一方接收信息。 下圖是三個客戶端同時訂閱同一個頻道
Redis事務能夠一次執行多條命令,發送exec命令前放入隊列緩存,結束事務,收到exec命令後執行事務操做,若是某一命令執行失敗,其它命令仍可繼續執行,一個事務執行的過程當中,其它客戶端提交的請求不會被插入到事務執行的命令列表中。
開始事務(命令:multi) 命令執行 結束事務(命令:exec)
128.127.0.0.1:6379> MULTI
OK
127.0.0.1:6379> set key key1
QUEUED
127.0.0.1:6379> get key
QUEUED
127.0.0.1:6379> rename key key001
QUEUED
127.0.0.1:6379> exec
1) OK
2) "key1"
3) OK
複製代碼
能夠經過修改配置文件設備密碼參數來提升安全性
# requirepass foobared
去掉註釋#號就能夠配置密碼
沒有配置密碼的狀況下查詢以下
127.0.0.1:6379> CONFIG GET requirepass
1) "requirepass"
2) ""
配置密碼以後,就須要進行認證
127.0.0.1:6379> CONFIG GET requirepass
(error) NOAUTH Authentication required.
127.0.0.1:6379> AUTH foobared #認證
OK
127.0.0.1:6379> CONFIG GET requirepass
1) "requirepass"
2) "foobared"
複製代碼
Redis持久有兩種方式:Snapshotting(快照),Append-only file(AOF)
一、將存儲在內存的數據以快照的方式寫入二進制文件中,如默認dump.rdb中 二、save 900 1 #900秒內若是超過1個Key被修改,則啓動快照保存 三、save 300 10 #300秒內若是超過10個Key被修改,則啓動快照保存 四、save 60 10000 #60秒內若是超過10000個Key被修改,則啓動快照保存
一、使用AOF持久時,服務會將每一個收到的寫命令經過write函數追加到文件中(appendonly.aof) 二、AOF持久化存儲方式參數說明 appendonly yes #開啓AOF持久化存儲方式 appendfsync always #收到寫命令後就當即寫入磁盤,效率最差,效果最好 appendfsync everysec #每秒寫入磁盤一次,效率與效果居中 appendfsync no #徹底依賴OS,效率最佳,效果無法保證
自帶相關測試工具
[root@test ~]# redis-benchmark --help
Usage: redis-benchmark [-h <host>] [-p <port>] [-c <clients>] [-n <requests]> [-k <boolean>]
-h <hostname> Server hostname (default 127.0.0.1)
-p <port> Server port (default 6379)
-s <socket> Server socket (overrides host and port)
-a <password> Password for Redis Auth
-c <clients> Number of parallel connections (default 50)
-n <requests> Total number of requests (default 100000)
-d <size> Data size of SET/GET value in bytes (default 2)
-dbnum <db> SELECT the specified db number (default 0)
-k <boolean> 1=keep alive 0=reconnect (default 1)
-r <keyspacelen> Use random keys for SET/GET/INCR, random values for SADD
Using this option the benchmark will expand the string __rand_int__
inside an argument with a 12 digits number in the specified range
from 0 to keyspacelen-1. The substitution changes every time a command
is executed. Default tests use this to hit random keys in the
specified range.
-P <numreq> Pipeline <numreq> requests. Default 1 (no pipeline).
-q Quiet. Just show query/sec values
--csv Output in CSV format
-l Loop. Run the tests forever
-t <tests> Only run the comma separated list of tests. The test
names are the same as the ones produced as output.
-I Idle mode. Just open N idle connections and wait.
Examples:
Run the benchmark with the default configuration against 127.0.0.1:6379:
$ redis-benchmark
Use 20 parallel clients, for a total of 100k requests, against 192.168.1.1:
$ redis-benchmark -h 192.168.1.1 -p 6379 -n 100000 -c 20
Fill 127.0.0.1:6379 with about 1 million keys only using the SET test:
$ redis-benchmark -t set -n 1000000 -r 100000000
Benchmark 127.0.0.1:6379 for a few commands producing CSV output:
$ redis-benchmark -t ping,set,get -n 100000 --csv
Benchmark a specific command line:
$ redis-benchmark -r 10000 -n 10000 eval 'return redis.call("ping")' 0
Fill a list with 10000 random elements:
$ redis-benchmark -r 10000 -n 10000 lpush mylist __rand_int__
On user specified command lines __rand_int__ is replaced with a random integer
with a range of values selected by the -r option.
複製代碼
[root@test ~]# redis-benchmark -n 1000000 -q
PING_INLINE: 152578.58 requests per second
PING_BULK: 150308.14 requests per second
SET: 143266.47 requests per second
GET: 148632.58 requests per second
INCR: 145857.64 requests per second
LPUSH: 143781.45 requests per second
LPOP: 147819.66 requests per second
SADD: 138350.86 requests per second
SPOP: 134282.27 requests per second
LPUSH (needed to benchmark LRANGE): 141302.81 requests per second
LRANGE_100 (first 100 elements): 146756.67 requests per second
LRANGE_300 (first 300 elements): 148104.27 requests per second
LRANGE_500 (first 450 elements): 152671.75 requests per second
LRANGE_600 (first 600 elements): 148104.27 requests per second
MSET (10 keys): 132731.62 requests per second
複製代碼
第一種是經過dump.rdb文件實現備份 第二種使用aof文件實現自動備份
Redis服務默認的自動文件備份方式(AOF沒有開啓的狀況下),在服務啓動時,就會自動從dump.rdb文件中去加載數據。
具體配置在redis.conf
save 900 1
save 300 10
save 60 10000
複製代碼
也能夠手工執行save命令實現手動備份
128.127.0.0.1:6379> set name key
OK
127.0.0.1:6379> SAVE
OK
127.0.0.1:6379> set name key1
OK
127.0.0.1:6379> BGSAVE
Background saving started
redis快照到dump文件時,會自動生成dump.rdb的文件
# The filename where to dump the DB
dbfilename dump.rdb
-rw-r--r-- 1 root root 253 Apr 17 20:17 dump.rdb
複製代碼
SAVE命令表示使用主進程將當前數據庫快照到dump文件 BGSAVE命令表示,主進程會fork一個子進程來進行快照備份 兩種備份不一樣之處,前者會阻塞主進程,後者不會。
# Note that you must specify a directory here, not a file name.
dir /usr/local/redisdata/
備份文件存儲路徑
127.0.0.1:6379> CONFIG GET dir
1) "dir"
2) "/usr/local/redisdata"
127.0.0.1:6379> set key 001
OK
127.0.0.1:6379> set key1 002
OK
127.0.0.1:6379> set key2 003
OK
127.0.0.1:6379> save
OK
複製代碼
將備份文件備份到其它目錄
[root@test ~]# ll /usr/local/redisdata/
total 4
-rw-r--r-- 1 root root 49 Apr 17 21:24 dump.rdb
[root@test ~]# date
Tue Apr 17 21:25:38 CST 2018
[root@test ~]# cp ./dump.rdb /tmp/
複製代碼
刪除數據
128.127.0.0.1:6379> del key1
(integer) 1
127.0.0.1:6379> get key1
(nil)
複製代碼
關閉服務,將原備份文件拷貝回save備份目錄
[root@test ~]# redis-cli -a foobared shutdown
[root@test ~]# lsof -i :6379
[root@test ~]# cp /tmp/dump.rdb /usr/local/redisdata/
cp: overwrite ‘/usr/local/redisdata/dump.rdb’? y
[root@test ~]# redis-server /usr/local/redis/redis.conf &
[1] 31487
複製代碼
登陸查看數據是否恢復
[root@test ~]# redis-cli -a foobared
127.0.0.1:6379> mget key key1 key2
1) "001"
2) "002"
3) "003"
複製代碼
redis服務默認是關閉此項配置
###### APPEND ONLY MODE ##########
appendonly no
# The name of the append only file (default: "appendonly.aof")
appendfilename "appendonly.aof"
# appendfsync always
appendfsync everysec
# appendfsync no
複製代碼
配置文件的相關參數,前面已經詳細介紹過。 AOF文件備份,是備份全部的歷史記錄以及執行過的命令,和mysql binlog很類似,在恢復時就是從新執次一次以前執行的命令,須要注意的就是在恢復以前,和數據庫恢復同樣須要手工刪除執行過的del或誤操做的命令。
一、aof文件備份與dump文件備份不一樣 二、服務讀取文件的優先順序不一樣,會按照如下優先級進行啓動 若是隻配置AOF,重啓時加載AOF文件恢復數據 若是同時 配置了RBD和AOF,啓動是隻加載AOF文件恢復數據 若是隻配置RBD,啓動時將加載dump文件恢復數據
hash-max-ziplist-entries 512
hash-max-ziplist-value 64
list-max-ziplist-entries 512
list-max-ziplist-value 64
複製代碼
list的成員與值都不太大的時候會採用緊湊格式來存儲,相對內存開銷也較小,在linux環境運行Redis時,若是系統的內存比較小,這個時候自動備份會有可能失敗,須要修改系統的**vm.overcommit_memory **參數,這個參數是linux系統的內存分配策略。
0 表示內核將檢查是否有足夠的可用內存供應用進程使用;若是有足夠的可用內存,內存申請容許;不然,內存申請失敗,並把錯誤返回給應用進程。 1 表示內核容許分配全部的物理內存,而無論當前的內存狀態如何。 2 表示內核容許分配超過全部物理內存和交換空間總和的內存 複製代碼
Redis官方的說明是,建議將vm.overcommit_memory的值修改成1,能夠用下面幾種方式進行修改: (1)編輯/etc/sysctl.conf ,改vm.overcommit_memory=1,而後sysctl -p 使配置文件生效 (2)sysctl vm.overcommit_memory=1 (3)echo 1 > /proc/sys/vm/overcommit_memory
定時快照:效率不高,會丟失數據
AOF:保持數據完整性(一個實例的數量不要太大2G最大)
複製代碼
1)根據業務須要選擇合適的數據類型 2)當業務場景不需持久化時就關閉全部持久化方式(採用ssd磁盤來提高效率) 3)不要使用虛擬內存的方式,每秒實時寫入AOF 4)不要讓REDIS所在的服務器物理內存使用超過內存總量的3/5 5)要使用maxmemory 6)大數據量按業務分開使用多個redis實例
集羣是將多個redis實例集中在一塊兒,實現同一業務需求,或者實現高可用與負載均衡
到底有哪些集羣方案呢??
1)經過redis的配置文件,實現主從複製、讀寫分離 2)經過haproxy的配置,實現負載均衡,當從故障時也會及時從集羣中T除 3)利用keepalived來實現負載的高可用
Redis Cluster是Redis的分佈式解決方案,在Redis 3.0版本正式推出的,有效解決了Redis分佈式方面的需求。當遇到單機內存、併發、流量等瓶頸時,能夠採用Cluster架構達到負載均衡的目的。