黑马Java面试教程_P2_Redis

embedded/2024/12/24 20:58:43/

系列博客目录


文章目录

  • 系列博客目录
  • 1前言
  • 2 使用场景
    • 面试官提问1:我看你做的项目中,都用到了redis,你在最近的项目中哪些场景使用了redis呢?
    • 面试官会接着问你1.1:如果发生了缓存穿透、击穿、雪崩,该如何解决?
    • 2.1缓存穿透
    • 2.2 缓存击穿
    • 2.3 缓存雪崩
    • 《缓存三兄弟》
    • 面试官会接着问你1.2:redis做为缓存,mysql的数据如何与redis进行同步呢?(双写一致性)
    • 2.4 双写一致性
      • 方案1:一致性要求高
      • 方案2:允许延迟一致
      • 总结
      • 面试文稿
    • 面试官会接着问你1.3:redis做为缓存,数据的持久化是怎么做的?
    • 2.5 持久化
      • RDB
      • AOF
      • RDB与AOF对比
      • 面试文稿
    • 面试官会接着问1.4 假如redis的key过期之后,会立即删除吗?
    • 2.6 过期策略
      • Redis数据删除策略1-惰性删除
      • Redis数据删除策略2-定期删除
      • 总结
      • 面试文稿
    • 面试官会接着问1.5:假如缓存过多,内存是有限的,内存被占满了怎么办?
    • 2.7数据淘汰策略
    • 面试官会接着问1.6:redis分布式锁,是如何实现的?
    • 2.8 redis分布式锁
      • redisson实现的(redis的)分布式锁-执行流程
      • redisson实现的分布式锁-可重入
      • redisson实现的分布式锁-主从一致性
      • 总结
      • 面试文稿
  • 3 其他面试
    • 面试官提问:Redis集群有哪些方案,知道嘛?
    • 3.1 主从复制
      • 主从数据同步原理
        • 第一:主从全量同步
        • 第二:主从增量同步(slave重启或后期数据变化)
      • 面试文稿
    • 3.2 哨兵
      • 哨兵工作具体内容
      • redis集群(哨兵模式)脑裂
      • 总结
      • 面试文稿
    • 3.3 分片集群结构
      • 分片集群结构-(如何实现)数据读写
      • 总结
      • 面试文稿
    • 面试官提问:Redis是单线程的,但是为什么还那么快
    • 面试官会接着问 能解释一下I/O多路复用模型吗?


1前言

现在几乎所有项目,都要使用Redis,面试过程中占比很高,所以是重点学习的内容。
Redis的内容分类为Redis的使用场景,Redis其他面试问题。
面试官问使用场景的时候经常与实际业务进行关联,Redis使用场景一般为缓存(穿透、击穿、雪崩、双写一致、持久化、数据过期、淘汰策略)、分布式锁(setnx,rediness)、计数器、保存token、消息队列、延迟队列(三个数据类型:普通String、List、ZSet)。主要是缓存和分布式锁。
 其他面试题:(1)集群(主从、哨兵、集群)。(2)事务。(3)Redis为什么快。

使用场景:
Redis的数据持久化策略有哪些
什么是缓存穿透,怎么解决
什么是布隆过滤器
什么是缓存击穿,怎么解决
什么是缓存雪崩,怎么解决
redis双写问题
Redis分布式锁如何实现
Redis实现分布式锁如何合理的控制锁的有效时长
Redis的数据过期策略有哪些
Redis的数据淘汰策略有哪些
其他面试题:
Redis集群有哪些方案,知道嘛
什么是 Redis 主从同步
你们使用Redis是单点还是集群?哪种集群
Redis分片集群中数据是怎么存储和读取的
redis集群脑裂
怎么保证redis的高并发高可用
你们用过Redis的事务吗?事务的命令有哪些
Redis是单线程的,但是为什么还那么快?

2 使用场景

redisredis_37">面试官提问1:我看你做的项目中,都用到了redis,你在最近的项目中哪些场景使用了redis呢?

我们不能单纯说Redis会用在哪,一定要结合简历上的项目,问题的本质是考察

  • 一是验证你的项目场景的真实性,二是为了作为深入发问的切入点
  • 缓存
  • 分布式锁
  • 消息队列、延迟队列

当你回答了缓存,那就会涉及到(面试官可能会深入提问)缓存三兄弟(穿透、击穿、雪崩)、双写一致、持久化、数据过期策略数、据淘汰策略。
回答分布式锁的话,就会涉及setnx、redisson

面试官会接着问你1.1:如果发生了缓存穿透、击穿、雪崩,该如何解决?

2.1缓存穿透

如果一个人想攻击你的系统,获取了你的请求路径之后,就会用一些假的Id,比如下面请求中1的位置就是Id,或者很大的值,负的值。
在这里插入图片描述

定义:缓存穿透:查询一个不存在的数据,mysql查询不到数据也不会直接写入缓存,就会导致每次请求都查数据库。(可能会导致数据库压力过大而宕机。)

解决方案一:缓存空数据,查询返回的数据为空,仍把这个空结果进行缓存。{key:1,value:null}
优点:简单
缺点:消耗内存,可能会发生不一致的问题,比如我会存上key1为的数据,但这时候redis中村的key为1对应的value还是null;

解决方案二: 布隆过滤器
优点:内存占用较少,没有多余key
缺点:实现复杂,存在误判
在这里插入图片描述



下面介绍一下布隆过滤器。
在这里插入图片描述
工作原理:布隆过滤器通过使用多个哈希函数和一个位数组来存储信息。其主要步骤如下:

  1. 初始化:创建一个位数组,所有位初始化为0。
  2. 添加元素:对于每个要加入集合的元素,布隆过滤器通过多个哈希函数生成多个哈希值,然后在位数组的对应位置将这些值设为1。
  3. 查询元素:要检查某个元素是否在集合中,布隆过滤器通过相同的哈希函数计算该元素的哈希值,并检查位数组中对应位置的值。如果所有位置都是1,集合中可能有该元素;如果有任何位置是0,则肯定不在集合中。

一般会将误判率设置在5%以内,这个误判率一般的项目可以接受,也不会使得数据库在高并发下被压倒。

总结

  1. Redis的使用场景
    根据自己简历上的业务进行回答
    缓存       穿透、击穿、雪崩、双写一致、持久化、数据过期、淘汰策略
    分布式锁    setnx、redisson
  2. 什么是缓存穿透,怎么解决
    缓存穿透:查询一个不存在的数据,mysql查询不到数据也不会直接写入缓存,就会导致每次请求都查数据库
    解决方案一:缓存空数据
    解决方案二:布隆过滤器

面试文稿

  1. 什么是缓存穿透?怎么解决?
    候选人:嗯,我想一下。缓存穿透是指查询一个一定不存在的数据,由于存储层查不到数据因此不写入缓存,这将导致这个不存在的数据每次请求都要到 DB 去查询,可能导致 DB 挂掉。这种情况大概率是遭到了攻击。解决方案的话,我们通常都会用布隆过滤器来解决它。

  2. 你能介绍一下布隆过滤器吗?
    候选人:嗯,是这样的。布隆过滤器主要是用于检索一个元素是否在一个集合中。(Self:通过在前端部署一个布隆过滤器,可以预先判断该键很可能不存在于数据库中,从而避免对数据库发起无效请求。)我们当时使用的是Redisson实现的布隆过滤器。它的底层原理是,先初始化一个比较大的位数组,里面存放的是二进制0或1。一开始都是0,当一个key来了之后,经过3次hash计算,模数组长度找到数据的下标,然后把数组中原来的0改为1。这样,三个数组的位置就能标明一个key的存在。查找的过程也是一样的。当然,布隆过滤器有可能会产生一定的误判,我们一般可以设置这个误判率,大概不会超过5%。其实这个误判是必然存在的,要不就得增加数组的长度。5%以内的误判率一般的项目也能接受,不至于高并发下压倒数据库。

2.2 缓存击穿

定义:缓存击穿:给某一个key设置了过期时间,当key过期的时候,恰好这时间点对这个key有大量的并发请求过来,这些并发的请求可能会瞬间把DB压垮。
你可能会问:我们对相同的key进行n个(大量的)请求,那么n=1的时候,我们会把返回的数据存储到Redis,那之后n-1次查询不就可以直接从Redis中查了吗?那怎么还会压垮DB呢?那是因为n=1在存储数据的时候,我们花费了过多的时间来往Redis中存数据,恰好这时间点对这个key有大量的并发请求过来,这些并发的请求可能会瞬间把DB压垮。为什么会有50ms呢,因为有些来自DB的数据是DB中多个表汇总的结果,可能需要分组统计才能得到要往Redis中存储的数据。
在这里插入图片描述
解决方案一:互斥锁      保证数据的强一致性、性能差。

在这里插入图片描述

解决方案二:逻辑过期     高可用、性能优

在这里插入图片描述
GPT:逻辑过期(Logical Expiration)是缓存管理中的一种策略,它与传统的“物理过期”(Physical Expiration)有显著的区别。在逻辑过期中,缓存的数据不会在某个时间点自动失效,而是通过应用程序内部的控制机制来决定何时认为缓存数据已经“过期”,并触发更新或重新加载数据。逻辑过期与物理过期的区别:物理过期:数据会在固定时间点(比如缓存的 TTL(生存时间)到期)自动过期,缓存系统会自动删除或失效该数据。此时,缓存数据与数据库的数据可能不一致。例如:如果设置了1小时的TTL,当时间到达时,缓存会自动失效并删除。任何对该数据的访问都将导致缓存穿透,直接访问数据库。逻辑过期:缓存数据不会在固定的时间点过期,而是通过应用逻辑来决定何时更新缓存数据。即使缓存中的数据“过期”,在物理层面缓存依然存在,只是标记为过期,程序会根据应用逻辑判断是否需要重新加载数据。例如:在一个用户信息缓存中,可以在缓存数据中增加一个字段(如 last_updated_time),应用逻辑会判断缓存数据是否超过某个时间阈值,并根据该判断决定是否重新加载数据。

这两种方案不一定要分个高下,要分情况用不同方案。强调数据准确性,用前者,强调用户体验,用后者。

总结

  1. 缓存击穿
    缓存击穿:给某一个key设置了过期时间,当key过期的时候,恰好这时间点对这个key有大量的并发请求过来,这些并发的请求可能会瞬间把DB压垮
  2. 解决方案一:互斥锁,强一致,性能差
  3. 解决灰案二:逻辑过期,高可用,性能优,不能保证数据绝对一致

面试文稿

什么是缓存击穿?怎么解决?

候选人:嗯!缓存击穿的意思是,对于设置了过期时间的key,缓存在某个时间点过期的时候,恰好这个时间点对这个Key有大量的并发请求过来。这些请求发现缓存过期,一般都会从后端 DB 加载数据并回设到缓存,这个时候大并发的请求可能会瞬间把 DB 压垮。解决方案有两种方式:第一,可以使用互斥锁:当缓存失效时,不立即去load db,先使用如 Redis 的 SETNX 去设置一个互斥锁。当操作成功返回时,再进行 load db的操作并回设缓存,否则重试get缓存的方法。第二种方案是设置当前key逻辑过期,大概思路如下:1) 在设置key的时候,设置一个过期时间字段一块存入缓存中,不给当前key设置过期时间;2) 当查询的时候,从redis取出数据后判断时间是否过期;3) 如果过期,则开通另外一个线程进行数据同步,当前线程正常返回数据,这个数据可能不是最新的。当然,两种方案各有利弊:如果选择数据的强一致性,建议使用分布式锁的方案,但性能上可能没那么高,且有可能产生死锁的问题。如果选择key的逻辑删除,则优先考虑高可用性,性能比较高,但数据同步这块做不到强一致。

2.3 缓存雪崩

定义:缓存雪崩是指在同一时段大量的缓存key同时失效或者Redis服务宕机,导致大量请求到达数据库,带来巨大压力。
在这里插入图片描述
解决方案1:给不同的Key的TTL添加随机值。(针对同一时段大量的缓存key同时失效)
解决方案2:利用Redis集群提高服务的可用性 哨兵模式、集群模式 (针对Redis服务宕机)
解决方案3:给缓存业务添加降级限流策略 ngxin(单体项目中)或spring cloud gateway(微服务项目中)
解决方案4:给业务添加多级缓存 Guava或Caffeine (预防大量Key过期)

总结

  1. 缓存雪崩
    缓存雪崩是指在同一时段大量的缓存key同时失效或者Redis服务宕机,导致大量请求到达数据库,带来巨大压力。
  2. 解决方案:
    给不同的Key的TTL添加随机值
    利用Redis集群提高服务的可用性
    给缓存业务添加降级限流策略 (降级可做为系统的保底策略,适用于穿透、击穿、雪崩)
    给业务添加多级缓存

面试文稿

什么是缓存雪崩?怎么解决?

候选人:嗯!缓存雪崩意思是,设置缓存时采用了相同的过期时间,导致缓存在某一时刻同时失效,请求全部转发到DB,DB瞬时压力过重而雪崩。与缓存击穿的区别是:雪崩是很多key,而击穿是某一个key缓存。解决方案主要是,可以将缓存失效时间分散开。比如,可以在原有的失效时间基础上增加一个随机值,比如1-5分钟随机。这样,每一个缓存的过期时间的重复率就会降低,就很难引发集体失效的事件。

《缓存三兄弟》

穿透无中生有key,布隆过滤nuIl隔离:
缓存击穿过期key,锁与非期解难题。
雪崩大量过期key,过期时间要随机。
面试必考三兄弟,可用限流来保底。

redismysqlredis_138">面试官会接着问你1.2:redis做为缓存,mysql的数据如何与redis进行同步呢?(双写一致性)

一定、一定、一定要设置前提,先介绍自己的业务背景,自己的业务如果一致性要求高是一种方案,允许延迟一致那就是另外一种方案了。

2.4 双写一致性

定义:双写一致性:当修改了数据库的数据也要同时更新缓存的数据,缓存和数据库的数据要保持一致
在这里插入图片描述

方案1:一致性要求高

读操作:缓存命中,直接返回;缓存未命中查询数据库,写入缓存,设定超时时间
写操作:延迟双删
在这里插入图片描述

通过三个问题解决为什么用延迟双删

  1. 先删除缓存,还是先修改数据库?
    下图表明先删除缓存,还是先修改数据库,哪个先干都不行。
    在这里插入图片描述

  2. 为什么要删除两次缓存? 因为上图表明仅删除一次不行,都会有脏数据的出现。

  3. 为什么要延时删除? 数据库一般是主从结构,延迟的那段时间可以让主DB把数据交给从DB。但是延迟的时间不好控制,没法做到百分之百的数据的强一致性。如何能做到呢? 加锁

在这里插入图片描述
但是如上图加锁的话性能不够好,比较慢。由于使用Redis,将数据放入缓存中的数据库一般都是读多写少,(写多读少的直接操作数据库比较省事)。

我们介绍两种新锁:

共享锁:读锁readLock,加锁之后,其他线程可以共享读操作

排他锁:独占锁writeLock也叫,加锁之后,阻塞其他线程读写操作
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

注意其中的锁名"ITEM _READ_WRITE_LOCK"要一直,不然没法控制。

实现了强一致的数据同步,但是性能低。后面一种场景,允许延迟一致,才是现实生活中被广泛使用的。

方案2:允许延迟一致

方法一如下,使用MQ,异步通知保证数据的最终一致性,需要保证MQ的可靠性。(后续会讲MQ)
在这里插入图片描述
方法二如下,基于Canal(阿里发明的中间件)的异步通知:
在这里插入图片描述
canal是基于mysql的主从同步来实现的
二进制日志(BINLOG)记录了所有的 DDL(数据定义语言)语句和 DML(数据操纵语言)语句,但不包括数据查询(SELECT、SHOW)语句。

总结

  1. redis做为缓存,mysql的数据如何与redis进行同步呢?(双写一致性)
    介绍自己简历上的业务
    第一种:我们当时是把文章的热点数据存入到了缓存中,虽然是热点数据,但是实时要求性并没有那么高,所以,我们当时采用的是异步的方案同步的数据
    第二种:我们当时是把抢券的库存存入到了缓存中,这个需要实时的进行数据同步,为了保证数据的强一致
    我们当时采用的是redisson提供的读写锁来保证数据的同步

  2. 那你来介绍一下异步的方案(你来介绍-下redisson读写锁的这种方案)
    1)允许延时一致的业务,采用异步通知 对应第一种
    使用MQ中间中间件,更新数据之后,通知缓存删除
    利用canal中间件,不需要修改业务代码,伪装为mysql的一个从节点,canal通过读取binlog数据更新缓存
    2)强一致性的,采用Redisson提供的读写锁 对应第二种
    共享锁:读锁readLock,加锁之后,其他线程可以共享读操作
    排他锁:独占锁writeLock也叫,加锁之后,阻塞其他线程读写操作

面试文稿

面试官:redis做为缓存,mysql的数据如何与redis进行同步呢?(双写一致性)

候选人:嗯!就说我最近做的这个项目,里面有xxxx(根据自己的简历上写)的功能,需要让数据库与redis高度保持一致,因为要求时效性比较高,我们当时采用的读写锁保证的强一致性。
我们采用的是redisson实现的读写锁,在读的时候添加共享锁,可以保证读读不互斥,读写互斥。当我们更新数据的时候,添加排他锁,它是读写,读读都互斥,这样就能保证在写数据的同时是不会让其他线程读数据的,避免了脏数据。这里面需要注意的是读方法和写方法上需要使用同一把锁才行。

面试官:那这个排他锁是如何保证读写、读读互斥的呢?

候选人:其实排他锁底层使用也是setnx(SET if Not eXists),保证了同时只能有一个线程操作锁住的方法

面试官:你听说过延时双删吗?为什么不用它呢?

候选人:延迟双删,如果是写操作,我们先把缓存中的数据删除,然后更新数据库,最后再延时删除缓存中的数据,其中这个延时多久不太好确定,在延时的过程中可能会出现脏数据,并不能保证强一致性,所以没有采用它。

redis_213">面试官会接着问你1.3:redis做为缓存,数据的持久化是怎么做的?

2.5 持久化

在Redis中提供了两种数据持久化的方式: 1、RDB    2、AOF

RDB

RDB全称Redis Database Backup file(Redis数据备份文件),也被叫做Redis数据快照。简单来说就是把内存中的
所有数据都记录到磁盘中。当Redis实例故障重启后,从磁盘读取快照文件,恢复数据。

主动备份如下:

[root@localhost ~]# redis-cli
127.0.0.1:6379> save #由Redis主进程来执行RDB,备份过程中会阻塞所有命令,如果Redis中有大文件,会阻塞很久
127.0.0.1:6379> bgsave #开启子进程执行RDB,避免主进程受到影响
Background saving started

被动备份:Redis内部有触发RDB的机制,可以在redis.conf文件中找到,格式如下:

# 900秒内,如果至少有1个key被修改,则执行bgsave
save 900 1
save 300 10
save 60 10000

以上是实操,那么RDB的执行原理是什么?
在这里插入图片描述

AOF

AOF全称为Append Only File(追加文件)。Redis处理的每一个写命令都会记录在AOF文件,可以看做是命令日志文件。
在这里插入图片描述
AOF默认是关闭的,需要修改redis.conf配置文件来开启AOF:

#是否开启AOF功能,默认是
noappendonly yes
# AOF文件的名称!
appendfilename "appendonly.aof'

AOF的命令记录的频率也可以通过redis.conf文件来配

# 表示每执行一次写命令,立即记录到AOF文件
appendfsync always
#写命令执行完先放入AOF缓冲区,然后表示每隔1秒将缓冲区数据写到A0F文件,是默认方案
appendfsync everysec
#写命令执行完先放入AOF缓冲区,由操作系统决定何时将缓冲区内容写回磁盘
appendfsync no

一般使用everysec。

在这里插入图片描述

缺点:因为是记录命令,AOF文件会比RDB文件大的多。而且AOF会记录对同一个key的多次写操作,但只有最后一次写操作才有意义。

通过执行bgrewriteaof命令,可以让AOF文件执行重写功能,用最少的命令达到相同效果。

在这里插入图片描述
Redis也会在触发阈值时自动去重写AOF文件。值也可以在redis.conf中配置

# AOF文件比上次文件 增长超过多少百分比则触发重写
auto-aof-rewrite-percentage 100
# AOF文件体积最小多大以上才触发重写
auto-aof-rewrite-min-size 64mb

RDB与AOF对比

RDB和AOF各有自己的优缺点,如果对数据安全性要求较高,在实际开发中往往会结合两者来使用。两个都开启。
在这里插入图片描述

面试文稿

  1. redis做为缓存,数据的持久化是怎么做的?
    候选人:在Redis中提供了两种数据持久化的方式:1) RDB;2) AOF。

  2. 这两种持久化方式有什么区别呢?
    候选人:RDB是一个快照文件。它是把redis内存存储的数据写到磁盘上。当redis实例宕机恢复数据的时候,可以从RDB的快照文件中恢复数据。AOF的含义是追加文件。当redis执行写命令的时候,都会存储到这个文件中。当redis实例宕机恢复数据的时候,会从这个文件中再次执行一遍命令来恢复数据。

  3. 这两种方式,哪种恢复的比较快呢?
    候选人:RDB因为是二进制文件,保存时体积也比较小,所以它恢复得比较快。但它有可能会丢数据。我们通常在项目中也会使用AOF来恢复数据。虽然AOF恢复的速度慢一些,但它丢数据的风险要小很多。在AOF文件中可以设置刷盘策略。我们当时设置的就是每秒批量写入一次命令。

rediskey_287">面试官会接着问1.4 假如redis的key过期之后,会立即删除吗?

定义:Redis对数据设置数据的有效时间(set name heima 10 ),数据过期以后,就需要将数据从内存中删除掉。可以按照不同的规则进行删除,这种删除规则就被称之为数据的删除策略(数据过期策略)。数据过期策略包含两种:惰性删除、定期删除。

2.6 过期策略

Redis数据删除策略1-惰性删除

惰性删除:设置该key过期时间后,我们不去管它,当需要该key时,我们在检查其是否过期,如果过期,我们就删掉它,反之返回该key。

set name zhangsan 10
get name //现name过期了,直接删除key

优点:对CPU友好,只会在使用该key时才会进行过期检查,对于很多用不到的key不用浪费时间进行过期检查
缺点:对内存不友好,如果一个key已经过期,但是一直没有使用,那么该key就会一直存在内存中,内存永远不会释放

Redis数据删除策略2-定期删除

定期删除:每隔一段时间,我们就对一些key进行检查,删除里面过期的key(从一定数量的数据库中取出一定数量的随机key进行检查,并删除其中的过期key)。

定期清理有两种模式:

  • SLOW模式是定时任务,执行频率默认为10hz(每秒10词),每次不超过25ms(防止时间太长,干扰主进程,一次清理不完,等一下,继续清理即可),以通过修改配置文件redis.conf的hz选项来调整这个次数
  • FAST模式执行频率不固定,但两次间隔不低于2ms,每次耗时不超过1ms。

优点:可以通过限制删除操作执行的时长和频率来减少删除操作对 CPU 的影响。另外定期删除,也能有效释放过期键占用的内存。

缺点:难以确定删除操作执行的时长和频率。 频率太慢,和惰性删除一样了,频率太快,影响CPU。

Redis的过期删除策略:惰性删除 + 定期删除两种策略进行配合使用

总结

Redis的数据过期策略
惰性删除:访问key的时候判断是否过期,如果过期,则删除
定期删除:定期检查一定量的key是否过期(SLOW模式+FAST模式)

面试文稿

面试官:Redis的数据过期策略有哪些?

候选人:嗯~,在redis中提供了两种数据过期删除策略
第一种是惰性删除,在设置该key过期时间后,我们不去管它,当需要该key时,我们在检查其是否过期,如果过期,我们就删掉它,反之返回该key。
第二种是 定期删除,就是说每隔一段时间,我们就对一些key进行检查,删除里面过期的key定期清理的两种模式:
SLOW模式是定时任务,执行频率默认为10hz,每次不超过25ms,以通过修改配置文件redis.conf的 hz 选项来调整这个次数
FAST模式执行频率不固定,每次事件循环会尝试执行,但两次间隔不低于2ms,每次耗时不超过1ms
Redis的过期删除策略:惰性删除+定期删除两种策略进行配合使用。

面试官会接着问1.5:假如缓存过多,内存是有限的,内存被占满了怎么办?

2.7数据淘汰策略

定义:数据的淘汰策略:当Redis中的内存不够用时,此时在向Redis中添加新的key,那么Redis就会按照某一种规则将内存中的数据删除掉,这种数据的删除规则被称之为内存的淘汰策略。

Redis支持8种不同策略来选择要删除的key:

  • noeviction:不淘汰任何key,但是内存满时不允许写入新数据,默认就是这种策略
  • volatile-ttl:对设置了TTL的key,比较key的剩余TTL值,TTL越小越先被淘汰
  • allkeys-random:对全体key,随机进行汰。
  • volatile-random:对设置了TTL的key,随机进行淘汰。
  • allkeys-lru:对全体key,基于LRU算法进行淘汰
    在这里插入图片描述
  • volatile-lru:对设置了TTL的key,基于LRU算法进行淘汰
  • allkeysIu:对全体key,基于LFU算法进行淘汰
  • volatile-lfu:对设置了TTL的key,基于LFU算法进行淘汰

数据淘汰策略-使用建议

  1. 优先使用 alkeys-lru 策略。充分利用 LRU 算法的优势,把最近最常访问的数据留在缓存中。如果业务有明显的冷热数据区分,建议使用。为什么不用LFU,因为之前的数据访问频率不一定能反映下一时间数据的使用。
  2. 如果业务中数据访问频率差别不大,没有明显冷热数据区分,建议使用alkeys-random,随机选择淘汰3. 如果业务中有置顶的需求,可以使用 volatile-lru 策略,同时置顶数据不设置过期时间,这些数据就一直不被删除,会淘汰其他设置过期时间的数据。
  3. 如果业务中有短时高频访问的数据,可以使用 allkeys-lfu 或 volatile-lfu 策略。

关于数据淘汰策略其他的面试问题

  1. 数据库有1000万数据,Redis只能缓存20w数据,如何保证Redis中的数据都是热点数据?
    使用allkeys-lru(挑选最近最少使用的数据淘汰)淘汰策略,留下来的都是经常访问的热点数据
  2. Redis的内存用完了会发生什么?
    主要看数据淘汰策略是什么?如果是默认的配置(noeviction),会直接报错

总结:

数据淘汰策略

  1. Redis提供了8种不同的数据淘汰策略(不用记),默认是noeviction不删除任何数据,内存不足直接报错
  2. LRU:最少最近使用。用当前时间减去最后一次访问时间,这个值越大则淘汰优先级越高。
  3. LFU:最少频率使用。会统计每个key的访问频率,值越小淘汰优先级越高

平时开发过程中用的比较多的就是allkeys-lru(结合自己的业务场景)

面试文稿

面试官:Redis的数据淘汰策略有哪些?

候选人:嗯,这个在redis中提供了很多种,默认是noeviction,不删除任何数据,内部不足直接报错是可以在redis的配置文件中进行设置的,里面有两个非常重要的概念,一个是LRU,另外一个是LFU。LRU的意思就是最少最近使用,用当前时间减去最后一次访问时间,这个值越大则淘汰优先级越高。LFU的意思是最少频率使用。会统计每个key的访问频率,值越小淘汰优先级越高我们在项目设置的是alkeys-lru,挑选最近最少使用的数据淘汰,把一些经常访问的key留在redis

面试官:数据库有1000万数据,Redis只能缓存20w数据,如何保证Redis中的数据都是热点数据?

候选人:嗯,我想一下~~
可以使用 alkeys-lru(挑选最近最少使用的数据淘汰)淘汰策略,那留下来的都是经常访问的热点数鋆
面试官:Redis的内存用完了会发生什么?

redis_375">面试官会接着问1.6:redis分布式锁,是如何实现的?

需要结合项目中的业务进行回答,通常情况下,分布式锁使用的场景集群情况下的定时任务、抢单、幂等性场景
抢券仅剩一张的场景:
在这里插入图片描述
在这里插入图片描述
分析一下上面代码在多线程中会不会出现问题。如下图所示,出现了问题。我们需要在本地加锁。
在这里插入图片描述
在这里插入图片描述
如上图所示,我们进行了本地加锁,锁是JVM的,可以解决JVM自己的线程互斥,每台服务器都有一个自己的JVM,但是如果有多台服务器的话呢?本地所无法解决多台服务器下 多JVM的互斥。如下图所示,需要加分布式锁,这时候所有JVM只有一个线程能获得锁。
在这里插入图片描述
下面介绍Redis实现的更强大的分布式锁。

redis_386">2.8 redis分布式锁

Redis实现分布式锁主要利用Redis的setnx命令。setnx是SET if not exists(如果不存在,则 SET)的简写。
获取锁:(为什么不用setnx命令再加一个为锁定时的命令呢,因为要保证原子性)

# 添加锁,NX是互斥、EX是设置超时时间
SET lock value NX EX 10

释放锁:

# 释放锁,删除即可
DEL key

为什么要为锁定时间呢?因为万一你申请了锁,你宕机了,会发生死锁。如下图所示。

在这里插入图片描述

Redis实现分布式锁如何合理的控制锁的有效时长? 如果我业务还没完成,锁就被打开,那没法保证业务完成,没法保证原子性。
根据业务执行时间预估,不行 不好估计,会受网络波动等的影响。
给锁续期,这个比较合理。

redissonredis_407">redisson实现的(redis的)分布式锁-执行流程

在这里插入图片描述
一般业务处理很快,线程2在等待也就是循环过程中就可以获取锁,大大提高了分布式锁的性能。
在这里插入图片描述
trylock中第一个参数是为了获得锁的最大等待时间,第二个参数是当前锁的失效时间,如果你添加了锁的失效时间,那么它就不会设置看门狗了,因为他认为你的业务会在失效时间内完成。如果你传-1或者不传,那就用watch dog 给你续期。

redisson_412">redisson实现的分布式锁-可重入

同一个线程的多个方法可以获得一把锁,因为是同一个线程,不会冲突。
在这里插入图片描述

redisson_416">redisson实现的分布式锁-主从一致性

在这里插入图片描述
还没来得及同步数据,主节点宕机,会选一个新的从节点当主节点。这个新的主节点,会给另外一个应用锁,导致两个线程同时持有一把锁。
在这里插入图片描述
解决方案:RedLock(红锁):不能只在一个redis实例上创建锁,应该是在多个redis实例上创建锁(n/2+1),避免在一个redis实例上加锁。 但是这样:实现复杂、性能差、运维繁琐。
其实服务器宕机出现概率低,Redis是AP思想,高可用性,可以做到最后的一致性,如果要保证数据的强一致性,可以用CP思想的zookeeper。

总结

  1. edis分布式锁,是如何实现的?
    先按照自己简历上的业务进行描述分布式锁使用的场景
    我们当使用的redisson实现的分布式锁,底层是setnx和lua脚本(保证原子性)

  2. Redisson实现分布式锁如何合理的控制锁的有效时长?
    redisson的分布式锁中,提供了一个WatchDog(看门狗)-个线程获取锁成功以后WatchDog会给持有锁的线程续期(默认是每隔10秒续期一次)

  3. Redisson的这个锁,可以重入吗?
    可以重入,多个锁重入需要判断是否是当前线程,在redis中进行存储的时候使用的hash结构来存储线程信息和重入的次数

  4. Redisson锁能解决主从数据一致的问题吗?
    不能解决,但是可以使用redisson提供的红锁来解决,但是这样的话,性能就太低了、如果业务中非要保证数据的强一致性,建议采用zookeeper实现的分布式锁

面试文稿

面试官:Redis分布式锁如何实现?

候选人:嗯,在redis中提供了一个命令setnx(SETifnotexists)
由于redis的单线程的,用了命令之后,只能有一个客户端对某一个key设置值,在没有过期或删除key的时候是其他客户端是不能设置这个key的

面试官:好的,那你如何控制Redis实现分布式锁有效时长呢?

候选人:嗯,的确,redis的setnx指令不好控制这个问题,我们当时采用的redis的一个框架redisson实现的。
redisson中需要手动加锁,并且可以控制锁的失效时间和等待时间,当锁住的一个业务还没有执行完成的时候,在redisson中引入了一个看门狗机制,就是说每隔一段时间就检査当前业务是否还持有锁,如果持有就增加加锁的持有时间,当业务执行完成之后需要使用释放锁就可以了
还有一个好处就是,在高并发下,一个业务有可能会执行很快,先客户1持有锁的时候,客户2来了以后并不会马上拒绝,它会自选不断尝试获取锁,如果客户1释放之后,客户2就可以马上持有锁,性能也得到了提升。

面试官:好的,redisson实现的分布式锁是可重入的吗?

候选人:嗯,是可以重入的。这样做是为了避免死锁的产生。这个重入其实在内部就是判断是否是当前线程持有的锁,如果是当前线程持有的锁就会计数,如果释放锁就会在计算上减一。在存储数据的时候采用的hash结构,大key可以按照自己的业务进行定制,其中小key是当前线程的唯一标识,value是当前线程重入的次数

面试官:redisson实现的分布式锁能解决主从一致性的问题吗

候选人:这个是不能的,比如,当线程1加锁成功后,master节点数据会异步复制到slave节点,此时当前持有Redis锁的master节点宕机,slave节点被提升为新的master节点,假如现在来了一个线程2,再

3 其他面试

面试官提问:Redis集群有哪些方案,知道嘛?

在Redis中提供的集群方案总共有三种:主从复制、哨兵模式、分片集群。

3.1 主从复制

单节点Redis的并发能力是有上限的,要进一步提高Redis的并发能力,就需要搭建主从集群,实现读写分离。
在这里插入图片描述
在这里插入图片描述

那主节点如何同步数据到从节点?

主从数据同步原理

第一:主从全量同步

在这里插入图片描述
截止到第11步就完成了主从数据的完全同步。之后进行同步,都是如同第9步,我们在主节点记录命令,发送给从节点进行执行。那么如何确保发送的时候正好是从节点需要的那部分数据呢?第二个问题,如何知道是第一次同步数据呢?

解决第一个问题:
Replication ld:简称replid,是数据集的标记,id一致则说明是同一数据集。每一个master都有唯一的replidslave则会继承master节点的replid
在这里插入图片描述
解决第二个问题:
offset:偏移量,随着记录在repl baklog中的数据增多而逐渐增大。save完成同步时也会记录当前同步的offset。如果slave的offset小于master的offset,说明slave数据落后于master,需要更新。
在这里插入图片描述

第二:主从增量同步(slave重启或后期数据变化)

在这里插入图片描述

总结:

  1. 介绍-下redis的主从同步
    单节点Redis的并发能力是有上限的,要进一步提高Redis的并发能力,就需要搭建主从集群,实现读写分离。般都是一主多从,主节点负责写数据,从节点负责读数据

  2. 能说一下,主从同步数据的流程?
    全量同步:
    1.从节点请求主节点同步数据(replicationid、offset)
    2.主节点判断是否是第一次请求,是第一次就与从节点同步版本信息(replication id和offset)3.主节点执行bgsave,生成rdb文件后,发送给从节点去执行4.在rdb生成执行期间,主节点会以命令的方式记录到缓冲区(一个日志文件)5.把生成之后的命令日志文件发送给从节点进行同步
    增量同步:
    1.从节点请求主节点同步数据,主节点判断不是第一次请求,不是第一次就获取从节点的offset值2.主节点从命令日志中获取offset值之后的数据,发送给从节点进行数据同步

面试文稿

面试官:Redis集群有哪些方案,知道嘛?

候选人:嗯~,在Redis中提供的集群方案总共有三种:主从复制、哨兵模式、Redis分片集群

面试官:那你来介绍一下主从同步

候选人:嗯,是这样的,单节点Redis的并发能力是有上限的,要进一步提高Redis的并发能力,可以搭建主从集群,实现读写分离。一般都是一主多从,主节点负责写数据,从节点负责读数据,主节点写入数据之后,需要把数据同步到从节点中

面试官:能说一下,主从同步数据的流程

候选人:嗯~~,好!主从同步分为了两个阶段,一个是全量同步,一个是增量同步
全量同步是指从节点第一次与主节点建立连接的时候使用全量同步,流程是这样的:
第一:从节点请求主节点同步数据,其中从节点会携带自己的replicationid和offset偏移量。
第二:主节点判断是否是第一次请求,主要判断的依据就是,主节点与从节点是否是同一个replicationid,如果不是,就说明是第一次同步,那主节点就会把自己的replicationid和offset发送给从节点,让从节点与主节点的信息保持一致。
第三:在同时主节点会执行bgsave,生成rdb文件后,发送给从节点去执行,从节点先把自己的数据清空,然后执行主节点发送过来的rdb文件,这样就保持了一致
当然,如果在rdb生成执行期间,依然有请求到了主节点,而主节点会以命令的方式记录到缓冲区,缓冲区是一个日志文件,最后把这个日志文件发送给从节点,这样就能保证主节点与从节点完全一致了,后期再同步数据的时候,都是依赖于这个日志文件,这个就是全量同步。
增量同步指的是,当从节点服务重启之后,数据就不一致了,所以这个时候,从节点会请求主节点同步数据,主节点还是判断不是第一次请求,不是第一次就获取从节点的offset值,然后主节点从命令日志中获取offset值之后的数据,发送给从节点进行数据同步

3.2 哨兵

之前的主从集群,无法保证高可用,因为如果主节点坏掉的话,就无法写数据。为了解决这个问题,Redis提供了哨兵(Sentinel)机制来实现主从集群的自动故障恢复。哨兵的结构和作用如下:
在这里插入图片描述

  • 监控:Sentinel会不断检查您的master和slave是否按预期工作
  • 自动故障恢复:如果master故障,Sentinel会将一个slave提升为master。当故障实例恢复后也以新的master为主
  • 通知:Sentinel充当Redis客户端的服务发现来源,当集群发生故障转移时,会将最新信息推送给Redis的客户端

哨兵工作具体内容

在这里插入图片描述

Sentinel基于心跳机制监测服务状态,每隔1秒向集群的每个实例发送ping命令:
主观下线:如果某sentinel节点发现某实例未在规定时间响应,则认为该实例主观下线。
客观下线:若超过指定数量(quorum)的sentinel都认为该实例主观下线,则该实例客观下线。quorum值最好超过Sentinel实例数量的一半。

哨兵选主规则

  1. 首先判断主与从节点断开时间长短,如超过指定值就排该从节点
  2. 然后判断从节点的slave-priority值,越小优先级越高
  3. 如果slave-prority一样,则判断slave节点的offset值,越大优先级越高
  4. 最后是判断slave节点的运行id大小,越小优先级越高。

redis_535">redis集群(哨兵模式)脑裂

在这里插入图片描述
在这里插入图片描述
数据发生了丢失,如何解决这个问题呢?
redis中有两个配置参数:
min-replicas-to-write 1 表示最少的salve节点为1个(GPT:配置最少的从节点数,只有当满足该数量的从节点都已经同步数据时,主节点才会接受客户端的写请求。这样可以确保写入的数据被复制到足够多的从节点上。)
min-replicas-max-lag 5 表示数据复制和同步的延迟不能超过5秒(GPT:设置主节点与从节点之间允许的最大同步延迟。如果从节点的同步延迟超过该值,主节点将不会接受新的写请求,从而避免主从数据不同步时可能发生的数据丢失。)

总结

  1. 怎么保证Redis的高并发高可用
    哨兵模式:实现主从集群的自动故障恢复(监控、自动故障恢复、通知)
  2. 你们使用redis是单点还是集群,哪种集群
    主从(1主1从)+哨兵就可以了。单节点不超过10G内存,如果Redis内存不足则可以给不同服务分配独立的Redis主从节点
  3. redis集群脑裂,该怎么解决呢?
    集群脑裂是由于主节点和从节点和sentinel处于不同的网络分区,使得sentinel没有能够心跳感知到主节点,所以通过选举的方式提升了一个从节点为主,这样就存在了两个master,就像大脑分裂了一样,这样会导致客户端还在老的丰节点那里写入数据,新节点无法同步数据,当网络恢复后,sentinel会将老的主节点降为从节点,这时再从新master同步数据,就会导致数据丢失
    解决:我们可以修改redis的配置,可以设置最少的从节点数量以及缩短主从数据同步的延迟时间,达不到要求就拒绝请求就可以避免大量的数据丢失

面试文稿

面试官:怎么保证Redis的高并发高可用

候选人:首先可以搭建主从集群,再加上使用redis中的哨兵模式,哨兵模式可以实现主从集群的自动故障恢复,里面就包含了对主从服务的监控、自动故障恢复、通知;如果master故障,Sentinel会将一个slave提升为master。当故障实例恢复后也以新的master为主;同时Sentinel也充当Redis客户端的服务发现来源,当集群发生故障转移时,会将最新信息推送给Redis的客户端,所以一般项目都会采用哨兵的模式来保证redis的高并发高可用

面试官:你们使用redis是单点还是集群,哪种集群

候选人:嗯!,我们当时使用的是主从(1主1从)加哨兵。一般单节点不超过10G内存,如果Redis内存不足则可以给不同服务分配独立的Redis主从节点。尽量不做分片集群。因为集群维护起来比较麻烦,并且集群之间的心跳检测和数据通信会消耗大量的网络带宽,也没有办法使用lua脚本和事务

面试官:redis集群脑裂,该怎么解决呢?

候选人:嗯!这个在项目很少见,不过脑裂的问题是这样的,我们现在用的是redis的哨兵模式集群的有的时候由于网络等原因可能会出现脑裂的情况,就是说,由于redis master节点和redis salve节点和sentinel处于不同的网络分区,使得sentinel没有能够心跳感知到master,所以通过选举的方式提升了个salve为master,这样就存在了两个master,就像大脑分裂了一样,这样会导致客户端还在old master那里写入数据,新节点无法同步数据,当网络恢复后,sentinel会将oldmaster降为salve,这时再从新master同步数据,这会导致old master中的大量数据丢失。
关于解决的话,我记得在redis的配置中可以设置:第一可以设置最少的salve节点个数,比如设置至少要有一个从节点才能同步数据,第二个可以设置主从数据复制和同步的延迟时间,达不到要求就拒绝请求,就可以避免大量的数据丢失。

3.3 分片集群结构

主从和哨兵可以解决高可用、高并发读的问题。但是依然有两个问题没有解决:
海量数据存储问题
高并发写的问题

使用分片集群可以解决上述问题,分片集群特征:
集群中有多个master,每个master保存不同数据(此时读的并发低了,所以有了下一点)
每个master都可以有多个slave节点(此时没有哨兵,如何监控master的状态呢,下一点解决)
master之间通过ping监测彼此健康状态(那我客户端该向哪个master发送数据呢,任意一个,看下一点)
客户端请求可以访问集群任意节点,最终都会被转发到正确节点
在这里插入图片描述

分片集群结构-(如何实现)数据读写

Redis 分片集群引入了哈希槽的概念,Redis 集群有 16384 个哈希槽,每个 key通过 CRC16 校验后对 16384 取模来决定放置哪个槽,集群的每个节点负责一部分 hash 槽。

在这里插入图片描述
大括号中是有效部分,不是指的话,key本身是有效部分。

总结

  1. redis的分片集群有什么作用?
  • 集群中有多个master,每个master保存不同数据
  • 每个master都可以有多个slave节点
  • master之间通过ping监测彼此健康状态
  • 客户端请求可以访问集群任意节点,最终都会被转发到正确节点
  1. Redis分片集群中数据是怎么存储和读取的?
  • Redis 分片集群引入了哈希槽的概念,Redis 集群有 16384 个哈希槽
  • 将16384个插槽分配到不同的实例
  • 读写数据:根据key的有效部分计算哈希值,对16384取余(有效部分,如果key前面有太括号,大括号的内容就是有效部分,如果没有,则以key本身做为有效部分)余数做为插槽,寻找插槽所在的实例

面试文稿

面试官:redis的分片集群有什么作用

候选人:分片集群主要解决的是,海量数据存储的问题,集群中有多个master,每个master保存不同数据,并且还可以给每个master设置多个slave节点,就可以继续增大集群的高并发能力。同时每个master之间通过ping监测彼此健康状态,就类似于哨兵模式了。当客户端请求可以访问集群任意节点,最终都会被转发到正确节点

面试官:Redis分片集群中数据是怎么存储和读取的?

候选人:嗯~,在redis集群中是这样的

Redis 集群引入了哈希槽的概念,有 16384个哈希槽,集群中每个主节点绑定了一定范围的哈希槽范围, key通过 CRC16 校验后对 16384取模来决定放置哪个槽,通过槽找到对应的节点进行存储。
取值的逻辑是一样的

面试官提问:Redis是单线程的,但是为什么还那么快

Redis是纯内存操作,执行速度非常快
采用单线程,避免不必要的上下文切换可竞争条件,多线程还要考虑线程安全问题
使用I/O多路复用模型,非阻塞I0

面试官会接着问 能解释一下I/O多路复用模型吗?

Redis是纯内存操作,执行速度非常快,它的性能瓶颈是网络延迟而不是执行速度,I/0多路复用模型主要就是实现了高效的网络请求。

为什么Redis可以实现高效的网络请求呢?需要掌握一下几点。

  • 用户空间和内核空间
  • 常见的IO模型
    • 阻塞I0(BlockingIO)
    • 非阻塞I0(NonblockinglO)
    • IO多路复用(IOMultiplexing)
  • Redis网络模型

在这里插入图片描述

面试文稿

面试官:Redis是单线程的,但是为什么还那么快?

候选人:嗯,这个有几个原因吧~
1、完全基于内存的,C语言编写
2、采用单线程,避免不必要的上下文切换可竞争条件
3、使用多路I/O复用模型,非阻塞I/O
例如:bgsave和 bgrewriteaof 都是在后台执行操作,不影响主线程的正常使用,不会产生阻塞

面试官:能解释一下I/0多路复用模型?

候选人:嗯~~,I/O多路复用是指利用单个线程来同时监听多个Socket,并在某个Socket可读、可写时得到通知,从而避免无效的等待,充分利用CPU资源。目前的I/O多路复用都是采用的epoll模式实现,它会在通知用户进程Socket就绪的同时,把已就绪的Socket写入用户空间,不需要挨个遍历Socket来判断是否就绪,提升了性能。
其中Redis的网络模型就是使用I/O多路复用结合事件的处理器来应对多个Socket请求,比如,提供了连接应答处理器、命令回复处理器,命令请求处理器;
在Redis6.0之后,为了提升更好的性能,在命令回复处理器使用了多线程来处理回复事件,在命令请求处理器中,将命令的转换使用了多线程,增加命令转换速度,在命令执行的时候,依然是单线程


http://www.ppmy.cn/embedded/148432.html

相关文章

Go1.21.0 到 Go1.23.0 的改动,向前兼容性和toolchain规则,Go1.21.0,必须升级你的Go啦

Go各版本Release Note Go1.21.0 2023-08-08 https://go.dev/doc/go1.21 内置方法 min & max:返回一个序列中的最大值最小值。 https://go.dev/ref/spec#Min_and_max clear:清空map和slice。 https://go.dev/ref/spec#Clear 标准库 log/slo…

《类和对象:基础原理全解析(上篇)》

目录 一、浅谈面向过程和面向对象二、C 中的结构体(struct)1. C 中 struct 的使用 三、C 中的类(class)四、类的封装性1. 类成员的权限控制关键字2. 权限控制关键字的使用 五、类的六大默认成员函数介绍六、构造函数1. 使用构造函…

2024年12月23日Github流行趋势

项目名称:donnemartin / system-design-primer 项目维护者:donnemartin, cclauss, satob, fluency03, linhe0x0 等项目介绍:学习如何设计大规模系统。为系统设计面试做准备。包括Anki闪卡。项目star数:281,476项目fork数&#xff…

Androidstudio点击按钮播放声音

以下内容由AI生成,道理一样。 在Android Studio中实现点击按钮播放声音,大致步骤如下: 首先,将音频文件(如 .mp3 、 .wav 等格式)放入项目的 res/raw 文件夹下。如果没有 raw 文件夹,需要在 …

java开发入门学习五-流程控制

流程控制语句 if, if...else, if..else if..else 与前端相同 略 switch case 与前端不同的是case不能使用表达式,使用表达式会报错 class TestSwitch {public static void main(String[] args) {// switch 表达式只能是特定的数据类型…

SQL server学习09-数据库编程(上)

目录 一,了解T-SQL语言 1,常量(标量值) 2,变量 1)局部变量 2)全局变量 二,内置函数 1,字符串函数 2,数学函数 3,日期时间函数 4&#x…

Python:基础语法

一、常量和表达式 我们可以把 Python 当成一个计算器, 来进行一些算术运算. 可以使用 - * / ( ) 等运算符进行算术运算. 先算乘除, 后算加减. 运算符和数字之间, 可以没有空格, 也可以有多个空格. 但是一般习惯上写一个空格(比较美观). print(1 2 - 3)print(1 2 * 3)pri…

Kafka-创建topic源码

一、命令创建topic kafka-topics --create --topic quickstart-events --bootstrap-server cdh1:9092 --partitions 2 --replication-factor 2 二、kafka-topics脚本 exec $(dirname $0)/kafka-run-class.sh org.apache.kafka.tools.TopicCommand "$" 脚本中指定了…