1.了解一致性情况; 2.反推不一致的情况; 3.探究单线程中的不一致的情况; 4.探究多线程中的不一致的情况; 5.拟定数据一致性策略; 6.补充细节
“数据一致”一般指的是:缓存中有数据,缓存的数据值 = 数据库中的值。
但根据缓存中是有数据为依据,则”一致“可以包含两种情况:
”数据不一致“:缓存的数据值 ≠ 数据库中的值;缓存或者数据库中存在旧值,导致其他线程读到旧数据
根据是否接收写请求,可以把缓存分成读写缓存和只读缓存。
只读缓存:只在缓存进行数据查找,即使用 “更新数据库+删除缓存” 策略;
读写缓存:需要在缓存中对数据进行增删改查,即使用 “更新数据库+更新缓存”策略。
只读缓存:新增数据时,直接写入数据库;更新(修改/删除)数据时,先删除缓存。 后续,访问这些增删改的数据时,会发生缓存缺失,进而查询数据库,更新缓存。
在更新数据的过程中,可能会有如下问题:
因此,要想达到数据一致性,需要保证两点:
接下来,我们针对有/无并发场景,进行分析并使用不同的策略。
无并发请求下,在更新数据库和删除缓存值的过程中,因为操作被拆分成两步,那么就很有可能存在“步骤1成功,步骤2失败” 的情况发生(由于单线程中步骤1和步骤2是串行执行的,不太可能会发生 “步骤2成功,步骤1失败” 的情况)。
(1) 先删除缓存,再更新数据库
(2) 先更新数据库,再删除缓存
执行时序 | 潜在问题 | 结果 | 是否存在一致性问题 |
---|---|---|---|
先删除缓存,后更新数据库 | 删除缓存成功,更新数据库失败 | 请求无法命中缓存,读取数据库旧值 | 是 |
先更新数据库,后删除缓存 | 更新数据库成功,删除缓存失败 | 请求命中缓存,读取缓存旧值 | 是 |
解决策略:
a.消息队列+异步重试
无论使用哪一种执行时序,可以在执行步骤1时,将步骤2的请求写入消息队列,当步骤2失败时,就可以使用重试策略,对失败操作进行 “补偿”。
具体步骤如下:
b.订阅Binlog变更日志
不管用 MQ/Canal或者MQ+Canal的策略来异步更新缓存,对整个更新服务的数据可靠性和实时性要求都比较高,如果产生数据丢失或者更新延时情况,会造成MySQL和Redis 中的数据不一致。因此,使用这种策略时,需要考虑出现不同步问题时的降级或补偿方案。
使用以上策略后,可以保证在单线程/无并发场景下的数据一致性。但是,在高并发场景下,由于数据库层面的读写并发,会引发的数据库与缓存数据不一致的问题(本质是后发生的读请求先返回了)
(1) 先删除缓存,再更新数据库
假设线程 A 删除缓存值后,由于网络延迟等原因导致未及更新数据库,而此时,线程 B 开始读取数据时会发现缓存缺失,进而去查询数据库。而当线程 B 从数据库读取完数据、更新了缓存后,线程 A 才开始更新数据库,此时,会导致缓存中的数据是旧值,而数据库中的是最新值,产生“数据不一致”。其本质就是,本应后发生的“B线程-读请求” 先于 “A线程-写请求” 执行并返回了。
时间 | 线程A | 线程B | 问题 |
---|---|---|---|
T1 | 删除数据X的缓存值 | ||
T2 | 1.读取缓存数据X,缓存缺失,从数据库读取数据X | 线程B读取到旧值 | |
T3 | 2.将数据X的值写入缓存 | 导致其他线程读到旧值 | |
T4 | 更新数据库中的数据X的值 | 缓存是旧值,数据库是旧值,导致数据不一致 |
或者
时间 | 线程A | 线程B | 问题 |
---|---|---|---|
T1 | 删除数据X的缓存值 | ||
T2 | 1.读取缓存数据X,缓存缺失,从数据库读取数据X | 线程B读取到旧值 | |
T3 | 更新数据库中的数据X的值 | ||
T4 | 2.将数据X的值写入缓存 | 缓存是旧值,数据库是旧值,导致数据不一致 |
解决策略:
a.设置缓存过期时间 + 延时双删
通过设置缓存过期时间,若发生上述淘汰缓存失败的情况,则在缓存过期后,读请求仍然可以从DB中读取最新数据并更新缓存,可减小数据不一致的影响范围。虽然在一定时间范围内数据有差异,但可以保证数据的最终一致性。
此外,还可以通过延时双删进行保障:在线程 A 更新完数据库值以后,让它先 sleep 一小段时间,确保线程 B 能够先从数据库读取数据,再把缺失的数据写入缓存,然后,线程 A 再进行删除。后续,其它线程读取数据时,发现缓存缺失,会从数据库中读取最新值。
redis.delKey(X)
db.update(X)
Thread.sleep(N)
redis.delKey(X)
sleep时间:在业务程序运行的时候,统计下线程读数据和写缓存的操作时间,以此为基础来进行估算
时间 | 线程A | 线程C | 线程D | 问题 |
---|---|---|---|---|
T5 | sleep(N) | 读取到缓存旧值 | 其他线程可能在此期间读到旧值 | |
T6 | 删除数据X的缓存值 | |||
T7 | 缓存缺失,从数据库读取数据X的最新值 |
注意:如果难以接受sleep这种写法,可以使用延时队列进行替代。
先删除缓存值再更新数据库,有可能导致请求因缓存缺失而访问数据库,给数据库带来压力,也就是缓存穿透的问题。针对缓存穿透问题,可以用缓存空结果、布隆过滤器进行解决。
(2) 先更新数据库,再删除缓存
如果线程 A 更新了数据库中的值,但还没来得及删除缓存值,线程 B 就开始读取数据了,那么此时,线程 B 查询缓存时,发现缓存命中,就会直接从缓存中读取旧值。其本质也是,本应后发生的“B线程-读请求” 先于 “A线程-删除缓存” 执行并返回了。
时间 | 线程A | 线程B | 潜在问题 |
---|---|---|---|
T1 | 更新数据库中的数据X | ||
T2 | 读取数据X,命中缓存,从缓存中读取X,读取旧值 | 线程A尚未删除缓存值,导致线程B读到旧值 | |
T3 | 删除缓存的数据X |
或者,在”先更新数据库,再删除缓存”方案下,“读写分离 + 主从库延迟”也会导致不一致:
时间 | 线程A | 线程B | MySQL集群 | 潜在问题 |
---|---|---|---|---|
T1 | 更新主库 X = 2(原值 X = 1) | |||
T2 | 删除缓存 | |||
T3 | 查询缓存,没有命中,查询从库,得到旧值(从库 X = 1) | |||
T4 | 将旧值写入缓存(X = 1) | |||
T5 | 从库同步完成(主从库 X = 2) | 最终 X 的值在缓存中是 1(旧值),在主从库中是 2(新值),也发生不一致 |
解决方案:
a.延迟消息
凭借经验发送「延迟消息」到队列中,延迟删除缓存,同时也要控制主从库延迟,尽可能降低不一致发生的概率
b.订阅binlog,异步删除
通过数据库的binlog来异步淘汰key,利用工具(canal)将binlog日志采集发送到MQ中,然后通过ACK机制确认处理删除缓存。
c.删除消息写入数据库
通过比对数据库中的数据,进行删除确认 先更新数据库再删除缓存,有可能导致请求因缓存缺失而访问数据库,给数据库带来压力,也就是缓存穿透的问题。针对缓存穿透问题,可以用缓存空结果、布隆过滤器进行解决。
d.加锁
更新数据时,加写锁;查询数据时,加读锁 保证两步操作的“原子性”,使得操作可以串行执行。“原子性”的本质是什么?不可分割只是外在表现,其本质是多个资源间有一致性的要求,操作的中间状态对外不可见。
建议:
优先使用“先更新数据库再删除缓存”的执行时序,原因主要有两个:
读写缓存:增删改在缓存中进行,并采取相应的回写策略,同步数据到数据库中
一致性:同步直写 > 异步回写 因此,对于读写缓存,要保持数据强一致性的主要思路是:利用同步直写 同步直写也存在两个操作的时序问题:更新数据库和更新缓存
执行顺序 | 潜在问题 | 结果 | 是否存在一致性问题 | 解决策略 |
---|---|---|---|---|
先更新缓存,后更新数据库 | 更新缓存成功,更新数据库失败 | 数据库中为旧值 | 是 | 消息队列+重试机制 |
先更新数据库,后更新缓存 | 更新数据库成功,更新缓存失败 | 请求命中缓存,读取缓存旧值 | 是 | 消息队列+重试机制;订阅Binlog日志 |
有四种场景会造成数据不一致:
时序 | 并发类型 | 潜在问题 | 影响程度 |
---|---|---|---|
先更新数据库,再更新缓存 | 写+读并发 | 1.线程A先更新数据库 2.线程B读取数据,命中缓存,读取到旧值 3.线程A更新缓存成功,后续的读请求会命中缓存得到最新值 | 这种场景下,线程A未更新完缓存之前,在这期间的读请求会短暂读到旧值,对业务短暂影响 |
先更新缓存,再更新数据库 | 写+读并发 | 1.线程A先更新缓存成功 2.线程B读取数据,此时线程B命中缓存,读取到最新值后返回 3.线程A更新数据库成功 | 这种场景下,虽然线程A还未更新完数据库,数据库会与缓存存在短暂不一致,但在这之前进来的读请求都能直接命中缓存,获取到最新值对业务影响较小 |
先更新数据库,再更新缓存 | 写+写并发 | 1.线程A和线程B同时更新同一条数据 2.更新数据库的顺序是先A后B 3.更新缓存时顺序是先B后A | 会导致数据库和缓存的不一致,对业务影响较大 |
先更新缓存,再更新数据库 | 写+写并发 | 1.线程A和线程B同时更新同一条数据 2.更新缓存的顺序是先A后B 3.更新数据库的顺序是先B后A | 会导致数据库和缓存的不一致,对业务影响较大 |
针对场景1和2的解决方案是:保存请求对缓存的读取记录,延时消息比较,发现不一致后,做业务补偿 针对场景3和4的解决方案是:对于写请求,需要配合分布式锁使用。写请求进来时,针对同一个资源的修改操作,先加分布式锁,保证同一时间只有一个线程去更新数据库和缓存;没有拿到锁的线程把操作放入到队列中,延时处理。用这种方式保证多个线程操作同一资源的顺序性,以此保证一致性。
其中,分布式锁的实现可以使用以下策略:
分布式锁策略 | 实现原理 |
---|---|
乐观锁 | 使用版本号、updatetime;缓存中,只允许高版本覆盖低版本 |
Watch实现Redis乐观锁 | watch监控redisKey的状态值,创建redis事务,key+1,执行事务,key被修改过则回滚 |
setnx | 获取锁:set/setnx;释放锁:del命令/lua脚本 |
Redisson分布式锁 | 利用Redis的Hash结构作为储存单元,将业务指定的名称作为key,将随机UUID和线程ID作为field,最后将加锁的次数作为value来储存;线程安全 |
上述策略只能保证数据的最终一致性。 要想做到强一致,最常见的方案是 2PC、3PC、Paxos、Raft 这类一致性协议,但它们的性能往往比较差,而且这些方案也比较复杂,还要考虑各种容错问题。 如果业务层要求必须读取数据的强一致性,可以采取以下策略:
(1)暂存并发读请求
在更新数据库时,先在 Redis 缓存客户端暂存并发读请求,等数据库更新完、缓存值删除后,再读取数据,从而保证数据一致性。
(2)串行化
读写请求入队列,工作线程从队列中取任务来依次执行
(3)使用Redis分布式读写锁
将淘汰缓存与更新库表放入同一把写锁中,与其它读请求互斥,防止其间产生旧数据。读写互斥、写写互斥、读读共享,可满足读多写少的场景数据一致,也保证了并发性。并根据逻辑平均运行时间、响应超时时间来确定过期时间。
public void write() {
Lock writeLock = redis.getWriteLock(lockKey);
writeLock.lock();
try {
redis.delete(key);
db.update(record);
} finally {
writeLock.unlock();
}
}
public void read() {
if (caching) {
return;
}
// no cache
Lock readLock = redis.getReadLock(lockKey);
readLock.lock();
try {
record = db.get();
} finally {
readLock.unlock();
}
redis.set(key, record);
}
缓存类型 | 一致性主要策略 | 优点 | 缺点 | 适用场景 |
---|---|---|---|---|
读写缓存 | 更新数据库+更新缓存 | 缓存中一直会有数据,如果更新操作后会立即再次访问,可以直接命中缓存,能够降低读请求对于数据库的压力 | 如果更新后的数据,之后很少再被访问到,会导致缓存中保留的不是最热的数据,缓存利用率不高,浪费缓存资源 | 读写相当 |
只读缓存 | 更新数据库+删除缓存 | 只读缓存中保留的都是热数据,缓存利用率高 | 删除缓存导致缓存缺失和再加载的过程;缓存缺失时,导致大量请求落到数据库,压垮数据库 | 读多写少 |
针对读写缓存时:同步直写,更新数据库+更新缓存
操作顺序 | 是否有并发请求 | 潜在问题 | 结果 | 应对方案 |
---|---|---|---|---|
先更新数据库,再更新缓存 | 无 | 数据库更新成功,但更新缓存失败 | 请求从缓存读到旧数据 | 重试缓存更新 |
写+读 | 线程A未更新完缓存之前,线程B的读请求会短暂读到旧值 | 请求从短暂缓存读到旧数据 | 保存读取记录,做补偿 | |
写+写 | 更新数据库的顺序是先A后B,但更新缓存时顺序是先B后A | 数据库和缓存数据不一致 | 分布式锁 | |
先更新缓存,再更新数据库 | 无 | 缓存更新成功,但更新数据库失败 | 数据库存在旧值 | 重试数据库更新 |
写+读 | 线程A还未更新完数据库,但在这之前进来的读请求都能直接命中缓存,获取到最新值 | 数据库与缓存存在短暂不一致,但不影响业务 | MQ确认数据库更新成功 | |
写+写 | 更新缓存的顺序是先A后B,但更新数据库时顺序是先B后A | 数据库和缓存数据不一致 | 分布式锁 |
针对只读缓存时:更新数据库+删除缓存
操作顺序 | 是否有并发请求 | 潜在问题 | 现象 | 应对方案 |
---|---|---|---|---|
先删除缓存值,再更新数据库 | 无 | 缓存删除成功,但数据库更新失败 | 请求从数据库读到旧数据 | 重试数据库更新 |
有 | 缓存删除后,尚未更新数据库,有并发读请求 | 并发请求从数据库读到旧值,并且更新到缓存,导致后续请求都读取旧值 | 延迟双删;加锁 | |
先更新数据库,再删除缓存 | 无 | 数据库更新成功,但缓存删除失败 | 请求从缓存读到旧数据 | 重试缓存删除 |
有 | 数据库更新成功后,尚未删除缓存,有并发读请求 | 并发请求从缓存中读到旧值 | 延迟消息;订阅变更日志;加锁 |
较为通用的一致性策略拟定:
在并发场景下,使用 “更新数据库 + 更新缓存” 需要用分布式锁保证缓存和数据一致性,且可能存在”缓存资源浪费“和”机器性能浪费“的情况;一般推荐使用 “更新数据库 + 删除缓存” 的方案。如果根据需要,热点数据较多,可以使用 “更新数据库 + 更新缓存” 策略。
在 “更新数据库 + 删除缓存” 的方案中,推荐使用推荐用 “先更新数据库,再删除缓存” 策略,因为先删除缓存可能会导致大量请求落到数据库,而且延迟双删的时间很难评估。 在 “先更新数据库,再删除缓存” 策略中,可以使用“消息队列+重试机制” 的方案保证缓存的删除。 并通过 “订阅binlog” 进行缓存比对,加上一层保障。
此外,需要通过初始化缓存预热、多数据源触发、延迟消息比对等策略进行辅助和补偿。 【多种数据更新触发源:定时任务扫描,业务系统 MQ、binlog 变更 MQ,相互之间作为互补来保证数据不会漏更新】
Redis key大小设计: 由于网络的一次传输MTU最大为1500字节,所以为了保证高效的性能,建议单个k-v大小不超过1KB,一次网络传输就能完成,避免多次网络交互;k-v是越小性能越好 Redis 热key:(1) 当业务遇到单个读热key,通过增加副本来提高读能力或是用hashtag把key存多份在多个分片中;(2)当业务遇到单个写热key,需业务拆分这个key的功能,属于设计不合理- 当业务遇到热分片,即多个热key在同一个分片上导致单分片cpu高,可通过hashtag方式打散
如缓存穿透、缓存击穿、缓存雪崩、机器故障等问题
问题 | 描述 | 解决方案 |
---|---|---|
缓存穿透 | 查询一个不存在的数据,不能命中缓存,导致每次请求都要到DB去查询,可能导致数据库崩溃 | 1.查询返回的数据为空,仍把这个空结果进行缓存,但过期时间会比较短; 2.布隆过滤器:将所有可能存在的数据哈希到一个足够大的bitmap中,一个一定不存在的数据会被这个bitmap拦截掉,从而避免了对DB的查询 |
缓存击穿 | 对于设置了过期时间的key,缓存在某个时间点过期的时候,恰好有大量对这个key的并发请求,可能导致大量并发的请求瞬间把数据库压垮 | 1.使用互斥锁:当缓存失效时,先使用如Redis的setnx去设置一个互斥锁,当操作成功返回时再进行数据库操作并回设缓存,否则重试get缓存的方法; 2.永远不过期:物理不过期,但逻辑过期(后台异步线程去刷新) |
缓存雪崩 | 设置缓存时采用了相同的过期时间,缓存在某一时刻同时失效,导致大量请求访问数据库。 与缓存击穿的区别:雪崩是多key,击穿是单key缓存 | 1.分散缓存失效时间:在原有的失效时间基础上增加一个随机值; 2. 使用互斥锁,当缓存数据失效时,保证只有一个请求能够访问到数据库,并更新缓存,其他线程等待并重试 |
https://xie.infoq.cn/article/1322475e05c11bd2aacd8bc73 https://www.infoq.cn/article/Hh4IOuIiJHWB4X46vxeO https://time.geekbang.org/column/article/217593 https://xie.infoq.cn/article/ab2599366009928a17fe498fb https://mp.weixin.qq.com/s?spm=a2c6h.12873639.0.0.2020fe8dDvjfTJ&__biz=MjM5ODYxMDA5OQ==&mid=404202261&idx=1&sn=1b8254ba5013952923bdc21e0579108e&scene=21#wechat_redirect https://time.geekbang.org/column/article/295812 https://blog.csdn.net/chengh1993/article/details/112685774 https://juejin.cn/post/6850418120201666568
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。