你是否在使用Redis时,不清楚Redis应该遵循的设计规范而苦恼?
你是否在Redis出现性能问题时,不知道该如何优化而发愁?
你是否被面试官拷问过Redis的设计规范和性能优化而回答不出来
别慌,看这篇文章就行了
本文,已收录于,我的技术网站 aijiangsir.com,有大厂完整面经,工作技术,架构师成长之路,等经验分享
(1)【建议】: 可读性和可管理性
以业务名(或数据库名)为前缀(防止key冲突),用冒号分隔,比如业务名:表名:id
(2)【建议】:简洁性
保证语义的前提下,控制key的长度,当key较多时,内存占用也不容忽视,例如:
(3)【强制】:不要包含特殊字符
反例:包含空格、换行、单双引号以及其他转义字符
(1)【强制】:拒绝bigkey(防止网卡流量、慢查询)
在Redis中,一个字符串最大512MB,一个二级数据结构(例如hash、list、set、zset)可以存储大约40亿个(2^32-1)个元素,但实际中如果下面两种情况,我就会认为它是bigkey。
一般来说,string类型控制在10KB以内;hash、list、set、zset元素个数不要超过5000。反例:一个包含200万个元素的list。
bigkey也就意味着每次获取要产生的网络流量较大;假设一个bigkey为1MB,客户端每秒访问量为1000,那么每秒产生1000MB的流量,对于普通的千兆网卡(按照字节算是128MB/s)的服务器来说简直是灭顶之灾,而且一般服务器会采用单机多实例的方式来部署,也就是说一个bigkey可能会对其他实例也造成影响,其后果不堪设想。
有个bigkey,它安分守己(只执行简单的命令,例如hget、lpop、zscore等),但它设置了过期时间,当它过期后,会被删除,如果没有使用Redis 4.0的过期异步删除(lazyfree-lazy- expire yes),就会存在阻塞Redis的可能性。
一般来说,bigkey的产生都是由于程序设计不当,或者对于数据规模预料不清楚造成的,来看几个例子:
1、拆
比如拆成:list1、list2、...listN
比如一个大的key,假设存了1百万的用户数据,可以拆分成 200个key,每个key下面存放5000个用户数据
如果bigkey不可避免,也要思考一下要不要每次把所有元素都取出来(例如有时候仅仅需要 hmget,而不是hgetall),删除也是一样,尽量使用优雅的方式来处理。
2、选择合适的数据类型【推荐】
最好的优化方案其实是在设计阶段,所以我们在使用Redis时,在设计阶段就应该尽量避免bigkey,所以选择合适的数据类型尤为重要。
例如:实体类型(要合理控制和使用数据结构,但也要注意节省内存和性能质检的平衡)
错误的做法:
set user:1:name tom
set user:1:age 19
set user:1:favor football
正确的做法:
hmset user:1 name tom age 19 favor football
3、控制key的生命周期,redis不是垃圾桶,当不需要使用的数据,及时过期清理【推荐】
建议使用Expire设置过期时间
条件允许可以打散过期时间,防止几种过期比如:设置key的过期时间时,采用固定过期时间+一定范围内的随机数
比如hgetall、lrange、smembers、zrange、sinter等并非不能使用。
但是在使用的时候一定要明确N的值,不然就可能由于查询数据太大导致redis阻塞。
建议:有遍历的需求时可以使用hscan、sscan、zscan代替
禁止线上使用keys、flushall、flushdb等,通过redis的rename机制禁掉命令。
当有需要扫描的需要时,建议使用scan方式渐进式处理
redis的多数据库较弱,使用数字进行区分,很多客户端支持较差,同时多业务用多数据库实际还是单线程处理,会有干扰
所以建议redis使用数据库只用序号0的数据库即可,在0数据库里采用key前缀区分业务即可
当我们要插入多个key时,可以采用一些批量命令代替单个命令,提高查询效率,例如:
1原生命令:例如mget、mset。
2非原生命令:可以使用pipeline提高效率。
但要注意控制一次批量操作的元素个数(例如500以内,实际也和元素字节数有关)。
注意两者不同:
11. 原生命令是原子操作,pipeline是非原子操作。
22. pipeline可以打包不同的命令,原生命令做不到
33. pipeline需要客户端和服务端同时支持。
如果业务上有需要,可以使用lua替代【建议】
错误的做法:
多个业务线公用同一个redis实例,比如订单、库存、权限都用同一个redis实例,只要有一块业务有阻塞,所有业务都会受影响。
正确的做法:
不相干的业务拆分为独立的redis实例,比如订单、库存、权限拆分为3个redis实例。
Jedis使用连接池方式:
JedisPoolConfig jedisPoolConfig = new JedisPoolConfig();
jedisPoolConfig.setMaxTotal(5);
jedisPoolConfig.setMaxIdle(2);
jedisPoolConfig.setTestOnBorrow(true);
JedisPool jedisPool = new JedisPool(jedisPoolConfig, "192.168.0.60", 6379, 3000, null);
Jedis jedis = null;
使用连接池执行命令:
try {
jedis = jedisPool.getResource();
//执行具体的命令
jedis.executeCommand()
} catch (Exception e) {
logger.error("op key {} error: " + e.getMessage(), key, e);
} finally {
//注意这里不是关闭连接,在JedisPool模式下,Jedis会被归还给资源池。
if (jedis != null)
jedis.close();
}
实际上最大连接数该如何优化,是一个很难回答的问题,考虑的因素有很多:
比如:
以一个例子说明,假设:
一次命令时间(borrow|return resource + Jedis执行命令(含网络) )的平均耗时约为1ms,一个连接的QPS大约是1000
业务期望的QPS是50000
那么理论上需要的资源池大小是50000 / 1000 = 50个。但事实上这是个理论值,还要考虑到要比理论值预留一些资源,通常来讲maxTotal可以比理论值大一些。
但这个值不是越大越好,一方面连接太多占用客户端和服务端资源,另一方面对于Redis这种高QPS的服务器,一个大命令的阻塞即使设置再大资源池仍然会无济于事。
maxldle(最大空闲连接数):
maxIdle实际上才是业务需要的最大连接数,maxTotal是为了给出余量,所以maxIdle不要设置过小,否则会有new Jedis(新连接)开销。
连接池的最佳性能是maxTotal = maxIdle,这样就避免连接池伸缩带来的性能干扰。但是如果并发量不大或者maxTotal设置过高,会导致不必要的连接资源浪费。一般推荐maxIdle可以设置为按上面的业务期望QPS计算出来的理论连接,maxTotal可以再放大一倍。
minIdle(最小空闲连接数):
minIdle与其说是最小空闲连接数,不如说是"至少需要保持的空闲连接数",在使用连接的过程中,如果连接数超过了minIdle,那么继续建立连接,如果超过了maxIdle,当超过的连接执行完业务后会慢慢被移出连接池释放掉
所以最小空闲连接数需要根据自己的业务规模和客户端规模自行评估配置
【建议】:
如果你的系统QPS很高,系统启动完马上就会有很多的请求过来,那么可以给redis连接池做预热,比如快速的创建一些redis连接,执行简单命令,类似ping(),快速的将连接池里的空闲连接提升到minIdle的数量。
连接池预热示例代码:
List<Jedis> minIdleJedisList = new ArrayList<Jedis>(jedisPoolConfig.getMinIdle());
for (int i = 0; i < jedisPoolConfig.getMinIdle(); i++) {
Jedis jedis = null;
try {
jedis = pool.getResource();
minIdleJedisList.add(jedis);
jedis.ping();
} catch (Exception e) {
logger.error(e.getMessage(), e);
} finally {
//注意,这里不能马上close将连接还回连接池,否则最后连接池里只会建立1个连接。。
//jedis.close();
}
}
//统一将预热的连接还回连接池
for (int i = 0; i < jedisPoolConfig.getMinIdle(); i++) {
Jedis jedis = null;
try {
jedis = minIdleJedisList.get(i);
//将连接归还回连接池
jedis.close();
} catch (Exception e) {
logger.error(e.getMessage(), e);
} finally {
}
}
总之,要根据实际系统的QPS和调用redis客户端的规模整体评估每个节点所使用的连接池大小
(例如接入sentinel、hystrix)
有必要可以使用SSL加密访问
LRU 算法(Least Recently Used,最近最少使用)淘汰很久没被访问过的数据,以最近一次访问时间作为参考。
LFU 算法(Least Frequently Used,最不经常使用)淘汰最近一段时间被访问次数最少的数据,以次数作为参考。
当存在热点数据时,LRU的效率很好,但偶发性的、周期性的批量操作会导致LRU命中率急剧下降,缓存污染情况比较严重。这时使用LFU可能更好点。
根据自身业务类型,配置好maxmemory-policy(默认是noeviction),推荐使用volatile-lru。如果不设置最大内存,当 Redis 内存超出物理内存限制时,内存的数据会开始和磁盘产生频繁的交换 (swap),会让 Redis 的性能急剧下降。
当Redis运行在主从模式时,只有主结点才会执行过期删除策略,然后把删除操作”del key”同
步到从结点删除数据。
swap对于操作系统来说比较重要,当物理内存不足时,可以将一部分内存页进行swap到硬盘上,以解燃眉之急。
但世界上没有免费午餐,swap空间由硬盘提供,对于需要高并发、高吞吐的应用来说,磁盘IO通常会成为系统瓶颈。
在Linux中,并不是要等到所有物理内存都使用完才会使用到swap,系统参数swppiness会决定操作系统使用swap的倾向程度。swappiness的取值范围是0~100,swappiness的值越大,说明操作系统可能使用swap的概率越高,swappiness值越低,表示操作系统更加倾向于使用物理内存。
swappiness的取值越大,说明操作系统可能使用swap的概率越高,越低则越倾向于使用物理内存。
如果linux内核版本<3.5,那么swapiness设置为0,这样系统宁愿swap也不会oom kille(杀掉进程)
如果linux内核版本>=3.5,那么swapiness设置为1,这样系统宁愿swap也不会oom killer
一般需要保证redis不会被kill掉:
cat /proc/version #查看linux内核版本
echo 1 > /proc/sys/vm/swappiness
echo vm.swapiness=1 >> /etc/sysctl.conf
PS:OOM killer 机制是指Linux操作系统发现可用内存不足时,强制杀死一些用户进程(非内核进程),来保证系统有足够的可用内存进行分配。
0:表示内核将检查是否有足够的可用物理内存(实际不一定用满)供应用进程使用;
1:表示内核允许分配所有的物理内存,而不管当前的内存状态如何;
如果是0的话,可能导致类似fork等操作执行失败,申请不到足够的内存空间
Redis建议把这个值设置为1,就是为了让fork操作能够在低内存下也执行成功。
cat /proc/sys/vm/overcommit_memory
echo "vm.overcommit_memory=1" >> /etc/sysctl.conf
sysctl vm.overcommit_memory=1
操作系统进程试图打开一个文件(或者叫句柄),但是现在进程打开的句柄数已经达到了上限,继续打开会报错:“Too many open files”
ulimit ‐a #查看系统文件句柄数,看open files那项
ulimit ‐n 65535 #设置系统文件句柄数
本文梳理了在使用Redis过程需要遵循的一些最佳实践,包括针对架构维度的一些深入性能优化的知识,如果面试官问你:"说下在使用Redis的过程中,需要注意哪些规范?",如果你按照本文的思路回答,肯定能让面试官眼前一亮,offer自然就到手了。
求一键三连:点赞、分享、收藏
点赞对我真的非常重要!在线求赞,加个关注我会非常感激!
最近无意间获得一份阿里大佬写的刷题笔记,一下子打通了我的任督二脉,进大厂原来没那么难。 这是大佬写的, 7701页的BAT大佬写的刷题笔记,让我offer拿到手软undefined本文,已收录于,我的技术网站 aijiangsir.com,有大厂完整面经,工作技术,架构师成长之路,等经验分享
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。