在默认情况下, Redis 将内存数据库快照保存在名字为 dump.rdb 的二进制文件中。
你可以对 Redis 进行设置, 让它在“ N 秒内数据集至少有 M 个改动”这一条件被满足时, 自动保存一次数据集。
比如说, 以下设置会让 Redis 在满足“ 60 秒内有至少有 1000 个键被改动”这一条件时, 自动保存一次数据集:
# save 60 1000 // 关闭RDB只需要将所有的save保存策略注释掉即可
还可以手动执行命令 生成RDB快照 ,进入redis客户端 执行命令 save 或 bgsave 可以生成dump.rdb文件,每次命令执行都会将所有redis内存快照 到一个新的rdb文件里,并覆盖原有rdb快照文件。
Redis 借助操作系统提供的写时复制技术(Copy-On-Write, COW),在生成快照的同时,依然可以正常处理写命令。简单来说,bgsave 子进程是由主线程 fork 生成的,可以共享主线程的所有内存数据。
bgsave 子进程运行后,开始读取主线程的内存数据,并把它们写入 RDB 文件。此时,如果主线程对这些数据也都是读操作,那么,主线程和 bgsave 子进程相互不影响。但是,如果主线程要修改一块数据,那么,这块数据就会被复制一份,生成该数据的副本。然后,bgsave 子进程会把这个副本数据写入 RDB 文件,而在这个过程中,主线程仍然可以直接修改原来的数据。
命令 | save | bgsave |
---|---|---|
IO类型 | 同步 | 异步 |
是否阻塞redis其他命令 | 是 | 否(在生成子进程执行调用fork函数时会有短暂的停留) |
复杂度 | O(n) | O(n) |
优点 | 不会消耗额外的内存 | 不阻塞客户端命令 |
缺点 | 阻塞客户端命令 | 需要fork进程,消耗内存 |
快照功能并不是非常耐久(durable): 如果 Redis 因为某些原因而造成故障停机, 那么服务器将丢失最近写入、且仍未保存到快照中的那些数据。从 1.1 版本开始, Redis 增加了一种完全耐久的持久化方式: AOF 持久化,将修改的每一条指令记录进文件appendonly.aof中(先写入os cache,每隔一段时间fsync到磁盘)
比如执行命令 “set zhuge 666” ,aof文件里会记录如下数据
* 3 $ 3 3 set 4 $ 5 5 zhuge 6 $ 3 7 666
这是一种resp协议格式数据,星号后面的数字代表命令有多少个参数,$号后面的数字代表这个参数有几个字符
注意,如果执行带过期时间的set命令,aof文件里记录的是并不是执行的原始命令,而是记录key过期的 时间戳
比如执行 “set tuling 888 ex 1000” ,对应aof文件里记录如下
1* 3 2 $ 3 3 set 4 $ 6 5 tuling 6 $ 3 7 888 8 * 3 9 $ 9 10 PEXPIREAT 11 $ 6 12 tuling 13 $ 13 14 1604249786301
你可以通过修改配置文件来打开 AOF 功能:
# appendonly yes
从现在开始, 每当 Redis 执行一个改变数据集的命令时(比如 SET), 这个命令就会被追加到 AOF 文件的末尾。
这样的话, 当 Redis 重新启动时, 程序就可以通过重新执行 AOF 文件中的命令来达到重建数据集的目的。
你可以配置 Redis 多久才将数据 fsync 到磁盘一次。 有三个选项:
1 appendfsync always :每次有新命令追加到 AOF 文件时就执行一次 fsync ,非常慢,也非常安全。 2 appendfsync everysec :每秒 fsync 一次,足够快,并且在故障时只会丢失 1 秒钟的数据。 3 appendfsync no :从不 fsync ,将数据交给操作系统来处理。更快,也更不安全的选择。
推荐(并且也是默认)的措施为每秒 fsync 一次, 这种 fsync 策略可以兼顾速度和安全性。
AOF文件里可能有太多没用指令,所以AOF会定期根据 内存的最新数据 生成aof文件
例如,执行了如下几条命令:
127.0.0.1 : 6379 > incr readcount 2 ( integer ) 1 127.0.0.1 : 6379 > incr readcount 4 ( integer ) 2 5 127.0.0.1 : 6379 > incr readcount 6 ( integer ) 3 7 127.0.0.1 : 6379 > incr readcount 8 ( integer ) 4 9 127.0.0.1 : 6379 > incr readcount 10 ( integer ) 5
重写后AOF文件里变成
* 3 2 $ 3 3 SET 4 $ 2 5 readcount 6 $ 1 7 5
如下两个配置可以控制AOF自动重写频率
1 # auto ‐ aof ‐ rewrite ‐ min ‐ size 64 mb //aof 文件至少要达到 64M 才会自动重写,文件太小恢复速度本来就很快,重写的意义不大 2 # auto ‐ aof ‐ rewrite ‐ percentage 100 //aof 文件自上一次重写后文件大小增长了 100% 则再次触发重写
当然AOF还可以手动重写,进入redis客户端 执行命令 bgrewriteaof 重写AOF
注意, AOF重写redis会fork出一个子进程去做(与bgsave命令类似),不会对redis正常命令处理有太多 影响
RDB 和 AOF ,我应该用哪一个?
命令 | RDB | AOF |
---|---|---|
启动优先级 | 低 | 高 |
体积 | 小 | 大 |
恢复速度 | 快 | 慢 |
数据安全性 | 易丢失 | 根据策略 |
如果开启了混合持久化, AOF在重写时 ,不再是单纯将内存数据转换为RESP命令写入AOF文件,而是将重写这一刻之前 的内存做RDB快照处理,并且将RDB快照内容和 增量的 AOF修改内存数据的命令存在一起,都写入新的AOF文件,新的文件一开始不叫appendonly.aof,等到重写完新的AOF文件才会进行改名,覆盖原有的AOF文件,完成新旧两个AOF文件的替换。
于是在 Redis 重启的时候,可以先加载 RDB 的内容,然后再重放增量 AOF 日志就可以完全替代之前的AOF 全量文件重放,因此重启效率大幅得到提升。
1. 写crontab定时调度脚本,每小时都copy一份rdb或aof的备份到一个目录中去,仅仅保留最近48
小时的备份
2. 每天都保留一份当日的数据备份到一个目录中去,可以保留最近1个月的备份
3. 每次copy备份的时候,都把太旧的备份给删了
4. 每天晚上将当前机器上的备份复制一份到其他机器上,以防机器损坏