redis单机容量方面会有瓶颈,主从模式只能保证支撑更多读并发,但是slave和master的数据是一模一样的,也就是说master能存储多少数据,slave就也只能存储这么多数据。比如我们用的是32G的机器,但是我们要存100G东西,那怎么存呢?用单master的主从集群只能存32G,想存更多,只能扩展master,这就需要我们用到redis的集群策略了,我们可以以分布式的建立多个master来做这种集群结构,那么具体如何做redis的集群呢?请看下面.
目前实现集群主要借助 redis cluster,redis集群模式,你可以做到在多台机器上,部署多个redis实例,每个实例存储一部分的数据,同时每个redis实例可以挂redis从实例,自动确保说,如果redis主实例挂了,会自动切换到redis从实例顶上来。
现在redis的新版本,大家都是用redis cluster的,也就是redis原生支持的redis集群模式。
redis cluster(多master + 读写分离 + 高可用)
我们只要基于redis cluster去搭建redis集群即可,不需要手工去搭建replication复制+主从架构+读写分离+哨兵集群+高可用
自动
将数据进行分片,每个master上放一部分数据在redis cluster架构下,每个redis要放开两个端口号,比如一个是6379,另外一个就是加10000的端口号,比如16379
16379端口号是用来进行节点间通信的,也就是cluster bus的东西,集群总线。cluster bus的通信,用来进行故障检测,配置更新,故障转移授权
cluster bus用了另外一种二进制的协议,主要用于节点间
进行高效
的数据交换,占用更少的网络带宽和处理时间
弊端比较大,会导致非常严重的数据错乱问题
,简单说下。
根据key进行普通hash,如果其中一个结点宕机了,会立马损失掉整个结点的数据,并且数据分布也错乱了,每次请求拿不到,导致大量请求打到mysql上。
比如ABC三个master分别接受对3取模后hash值为0,1,2的key值数据,如果B宕机了,首先B数据丢失了,其次,当请求再次取模是对2(现有机器数)取模,那么原来请求落到的redis结点可能也就变了,新的接受请求的结点并没有存储原来的数据,就会重新查mysql拿数据,如果此时有高并发,极可能发送雪崩问题。
百度百科 在使用n台缓存服务器时,一种常用的负载均衡方式是,对资源o的请求使用hash(o)=o mod n来映射到某一台缓存服务器。当增加或减少一台缓存服务器时这种方式可能会改变所有资源对应的hash值,也就是所有的缓存都失效了,这会使得缓存服务器大量集中地向原始内容服务器更新缓存。因此需要一致哈希算法来避免这样的问题。 一致哈希尽可能使同一个资源映射到同一台缓存服务器。这种方式要求增加一台缓存服务器时,新的服务器尽量分担存储其他所有服务器的缓存资源。减少一台缓存服务器时,其他所有服务器也可以尽量分担存储它的缓存资源。 一致哈希算法的主要思想是将每个缓存服务器与一个或多个哈希值域区间关联起来,其中区间边界通过计算缓存服务器对应的哈希值来决定。(定义区间的哈希函数不一定和计算缓存服务器哈希值的函数相同,但是两个函数的返回值的范围需要匹配。)如果一个缓存服务器被移除,则它所对应的区间会被并入到邻近的区间,其他的缓存服务器不需要任何改变 [1] 。
图解一致性Hash算法
数据倾斜问题及解决
虚拟结点是随机分布的,这样会使原来少量服务器时候造成的数据分布不均匀变的均匀,原理如图
一旦某个master宕机了,redis会快速将原来的hash slot分配到其他master上,当然这里避免不了的,会有一定的请求需要重新拿mysql数据
redis cluster有固定的16384个hash slot(2的14次方),我们会对每个key计算CRC16
值,然后对16384取模
,可以获取key对应的hash slot
redis cluster中每个master都会持有部分slot,比如有3个master,那么可能每个master持有5000多个hash slot
hash slot让node的增加和移除很简单,增加一个master,就将其他master的hash slot移动部分过去,减少一个master,就将它的hash slot移动到其他master上去
移动hash slot的成本是非常低的
客户端的api,可以对指定的数据,让他们走同一个hash slot,通过hash tag来实现;
为什么hash slot用的是16384而不是其他?老毛病了,总感觉这些特殊的数字有点意思(镜像问题:redis为什么每次容量都设置2的幂次方,为什么转红黑树的条件是链表长度为8即同一节点hash冲突次数为8?),果不其然,可以看看作者给的回答
redis cluster节点间采取gossip协议
进行通信
分布式系统中结点之间主要有两种通讯机制
集中式
:好处在于,元数据的更新和读取,时效性非常好
,一旦元数据出现了变更,立即就更新到集中式的存储中,其他节点读取的时候立即就可以感知到; 不好在于,所有的元数据的跟新压力全部集中在一个地方,可能会导致元数据的存储有压力
Gossip
进程间使用流言协议
即Gossip来同步信息,接收主服务器是否下线的信息,并使用投票协议
来决定是否进行自动故障迁移以及选择哪个从服务器作为新的主服务器
在杂乱无章中寻求一致
gossip协议包含多种消息,包括ping,pong,meet,fail
,等等
redis-trib.rb add-node
其实内部就是发送了一个gossip meet消息,给新加入的节点,通知那个节点去加入我们的集群每个节点都有一个专门用于节点间通信的端口,就是自己提供服务的端口号+10000,比如7001,那么用于节点间通信的就是17001端口
每隔节点每隔一段时间都会往另外几个节点发送ping消息,同时其他几点接收到ping
之后返回pong
故障信息,节点的增加和移除,hash slot信息,等等
jedis是redis cluster的java client客户端,jedis cluster api
客户端可能会挑选任意一个redis实例去发送命令,每个redis实例接收到命令,都会计算key对应的hash slot
如果在本地就在本地处理,否则返回moved给客户端,让客户端进行重定向
cluster keyslot mykey
,可以查看一个key对应的hash slot是什么
用redis-cli的时候,可以加入-c
参数,支持自动的请求重定向
,redis-cli接收到moved之后,会自动重定向到对应的节点执行命令
计算hash slot的算法,就是根据key计算CRC16值,然后对16384取模,拿到对应的hash slot
也可以手动指定solt:用hash tag
可以手动指定key对应的slot
,同一个hash tag下的key,都会在一个hash slot中,比如set mykey1:{100}
v1和set mykey2:{100}
v2,他们属于同一个tag,那么他们会路由到同一服务器上
节点间通过gossip协议进行数据交换,就知道每个hash slot在哪个节点上
上面我们也说了jedis一开始是基于客户端进行重定向
,很消耗网络IO
,因为大部分情况下,可能都会出现一次请求重定向,才能找到正确的节点
所以大部分的客户端,比如java redis客户端,就是jedis,都是smart的
本地维护一份hashslot -> node的映射表,缓存
,大部分情况下,直接走本地缓存就可以找到hashslot -> node,不需要通过节点进行moved重定向
JedisCluster都会在本地计算key的hashslot
,然后在本地映射表找到对应的节点
moved
(表示该hashslot已不在这个node了)更新
本地的hashslot -> node映射表缓存 重复上面几个步骤,直到找到对应的节点,如果重试超过5次,那么就报错,JedisClusterMaxRedirectionException
jedis老版本,可能会出现在集群某个节点故障还没完成自动切换恢复时,频繁更新hash slot,频繁ping节点检查活跃,导致大量网络IO开销 jedis最新版本,对于这些过度的hash slot更新和ping,都进行了优化,避免了类似问题
ask重定向
给jedis迁移过程中
,所以JedisCluster API收到ask是不会更新hashslot本地缓存 只有确定说,hashslot已经迁移完了,返回moved
是会更新本地hashslot->node映射表缓存的
redis cluster的高可用的原理,几乎跟哨兵是类似的
如果一个节点认为另外一个节点宕机,那么就是pfail
,主观宕机
如果多个节点都认为另外一个节点宕机了,那么就是fail
,客观宕机,跟哨兵的原理几乎一样,sdown,odown
在cluster-node-timeout内,某个节点一直没有返回pong,那么就被认为pfail
如果一个节点认为某个节点pfail了,那么会在gossip ping消息中,ping给其他节点,如果超过半数的节点都认为pfail了,那么就会变成fail
对宕机的master node,从其所有的slave node中,选择一个切换成master node
检查每个slave node与master node断开连接的时间,如果超过了cluster-node-timeout * cluster-slave-validity-factor,那么就没有资格切换成master
这个也是跟哨兵是一样的,从节点超时过滤的步骤
哨兵:对所有从节点进行排序,slave priority,offset,run id
redis cluster :每个从节点,都根据自己对master复制数据的offset,来设置一个选举时间,offset越大(复制数据越多)的从节点,选举时间越靠前,优先进行选举 所有的master node开始slave选举投票,给要进行选举的slave进行投票,如果大部分master node(N/2 + 1)都投票给了某个从节点,那么选举通过,那个从节点可以切换成master
从节点执行主备切换,从节点切换为主节点
基于不同阶段redis的演进之路,到底为什么?
详细的可以看,如果了解每个阶段的发展可以起到融会贯通,huo'ran'kai https://mp.weixin.qq.com/s/WzbeCyOORPq2E3T43jfEjw