Redis之-AOF

AOF是基於日誌的,相似於Oracle的redo,Mysql的binlog日誌。redis

Aof 的配置
appendonly no # 是否打開 aof日誌功能sql

appendfsync always # 每1個命令,都當即同步到aof. 安全,速度慢
appendfsync everysec # 折衷方案,每秒寫1次
appendfsync no # 寫入工做交給操做系統,由操做系統判斷緩衝區大小,統一寫入到aof. 同步頻率低,速度快,安全

no-appendfsync-on-rewrite yes: # 正在導出rdb快照的過程當中,要不要中止同步aof
auto-aof-rewrite-percentage 100 #aof文件大小比起上次重寫時的大小,增加率100%時,重寫
auto-aof-rewrite-min-size 64mb #aof文件,至少超過64M時,重寫
appendfilename /var/dir/appendonly.aof #文件的路徑app

作個試驗:
1,編輯redis.conf文件
開啓aof功能,並命名aof filename
2,pkill -9 redis
3,從新啓動redis
[root@test-laoyangtest redis]# pkill -9 redis
[root@test-laoyangtest redis]# ./bin/redis-server ./redis.conf
4,查看aof目錄下aof文件
[root@test-laoyangtest dir]# more laoyang-appendonly.aof --爲空
5,設定幾個鍵值,而後在查看aof文件
[root@test-laoyangtest redis]# ./bin/redis-cli
127.0.0.1:6379> keys *
(empty list or set)
127.0.0.1:6379> set site www.woda.com
OK
127.0.0.1:6379> set www baidu.com
OKide

aof文件有內容產生了
[root@test-laoyangtest dir]# more laoyang-appendonly.aof
2
$6
SELECT
$1
0
3
$3
set
$4
site
$12
www.woda.com
*3
$3
set
$3
www
$9
baidu.com工具

這樣有個問題,若是是自動增加的值,同一個key,操做100次,aof來回要走100條記錄。如何解決?
全部的key在內存中,有1個具體的狀態,把key的值,逆化成命令
好比,set age 1 而後incr age了100次。那麼最後aof 能夠直接set age 101(這個操做叫aof重寫)解決aof愈來愈大的問題。操作系統

【這兩個參數控制】
auto-aof-rewrite-percentage 100 #aof文件大小比起上次重寫時的大小,增加率100%時,重寫
auto-aof-rewrite-min-size 64mb #aof文件,至少超過64M時,重寫日誌

使用工具來進行寫入2w個命令
[root@test-laoyangtest redis]# ./bin/redis-benchmark -n 20000server

====== MSET (10 keys) ======
20000 requests completed in 0.32 seconds
50 parallel clients
3 bytes payload
keep alive: 1內存

95.03% <= 1 milliseconds
99.75% <= 7 milliseconds
100.00% <= 7 milliseconds
62695.92 requests per second ---持久化的時間增加

[root@test-laoyangtest redis]# cd /var/dir/
[root@test-laoyangtest dir]# ll
總用量 8
-rw-r--r-- 1 root root 116 6月 18 15:14 dump.rdb
-rw-r--r-- 1 root root 102 6月 18 15:02 laoyang-appendonly.aof
[root@test-laoyangtest dir]# ll -h
總用量 13M
-rw-r--r-- 1 root root 1.7K 6月 18 15:32 dump.rdb
-rw-r--r-- 1 root root 13M 6月 18 15:32 laoyang-appendonly.aof

由於如今設定的重寫是64M重寫,咱們插入20w數據試試

[root@test-laoyangtest redis]# ./bin/redis-benchmark -n 200000
46.13% <= 1 milliseconds
87.99% <= 2 milliseconds
98.80% <= 3 milliseconds
99.72% <= 4 milliseconds
99.84% <= 5 milliseconds
99.89% <= 6 milliseconds
99.90% <= 8 milliseconds
99.91% <= 9 milliseconds
99.92% <= 10 milliseconds
99.93% <= 13 milliseconds
99.94% <= 14 milliseconds
99.95% <= 47 milliseconds
99.96% <= 48 milliseconds
99.97% <= 49 milliseconds
99.98% <= 55 milliseconds
100.00% <= 56 milliseconds
100.00% <= 56 milliseconds
36596.52 requests per second

[root@test-laoyangtest dir]# ll -h
總用量 59M
-rw-r--r-- 1 root root 1.7K 6月 18 15:41 dump.rdb
-rw-r--r-- 1 root root 59M 6月 18 15:41 laoyang-appendonly.aof
[root@test-laoyangtest dir]# ll -h
總用量 2.5M
-rw-r--r-- 1 root root 1.7K 6月 18 15:41 dump.rdb
-rw-r--r-- 1 root root 2.5M 6月 18 15:42 laoyang-appendonly.aof #重寫了

這會兒也可能還有冗餘命令,咱們可讓在內存中的,重寫一下。再次減小冗餘
[root@test-laoyangtest redis]# ./bin/redis-cli
127.0.0.1:6379> bgrewriteaof
Background append only file rewriting started
127.0.0.1:6379>

[root@test-laoyangtest dir]# ll -h總用量 5.2M-rw-r--r-- 1 root root 16K 6月 18 15:44 dump.rdb-rw-r--r-- 1 root root 5.2M 6月 18 15:44 laoyang-appendonly.aof #重寫之前是5.2MB[root@test-laoyangtest dir]# ll -h總用量 2.0M-rw-r--r-- 1 root root 16K 6月 18 15:44 dump.rdb-rw-r--r-- 1 root root 2.0M 6月 18 16:19 laoyang-appendonly.aof #重寫之後是2MB,取消了一些冗餘數據。

相關文章
相關標籤/搜索