黑马Java面试教程_P2_Redis

news/2024/12/26 0:12:43/

系列博客目录


文章目录

  • 系列博客目录
  • 1前言
  • 2 使用场景
    • 面试官提问1:我看你做的项目中,都用到了redis,你在最近的项目中哪些场景使用了redis呢?
    • 面试官会接着问你1.1:如果发生了缓存穿透、击穿、雪崩,该如何解决?
    • 2.1缓存穿透
    • 2.2 缓存击穿
    • 2.3 缓存雪崩
    • 《缓存三兄弟》
    • 面试官会接着问你1.2:redis做为缓存,mysql的数据如何与redis进行同步呢?(双写一致性)
    • 2.4 双写一致性
      • 方案1:一致性要求高
      • 方案2:允许延迟一致
      • 总结
      • 面试文稿
    • 面试官会接着问你1.3:redis做为缓存,数据的持久化是怎么做的?
    • 2.5 持久化
      • RDB
      • AOF
      • RDB与AOF对比
      • 面试文稿
    • 面试官会接着问1.4 假如redis的key过期之后,会立即删除吗?
    • 2.6 过期策略
      • Redis数据删除策略1-惰性删除
      • Redis数据删除策略2-定期删除
      • 总结
      • 面试文稿
    • 面试官会接着问1.5:假如缓存过多,内存是有限的,内存被占满了怎么办?
    • 2.7数据淘汰策略
    • 面试官会接着问1.6:redis分布式锁,是如何实现的?
    • 2.8 redis分布式锁
      • redisson实现的(redis的)分布式锁-执行流程
      • redisson实现的分布式锁-可重入
      • redisson实现的分布式锁-主从一致性
      • 总结
      • 面试文稿
  • 3 其他面试
    • 面试官提问:Redis集群有哪些方案,知道嘛?
    • 3.1 主从复制
      • 主从数据同步原理
        • 第一:主从全量同步
        • 第二:主从增量同步(slave重启或后期数据变化)
      • 面试文稿
    • 3.2 哨兵
      • 哨兵工作具体内容
      • redis集群(哨兵模式)脑裂
      • 总结
      • 面试文稿
    • 3.3 分片集群结构
      • 分片集群结构-(如何实现)数据读写
      • 总结
      • 面试文稿
    • 面试官提问:Redis是单线程的,但是为什么还那么快
    • 面试官会接着问 能解释一下I/O多路复用模型吗?


1前言

现在几乎所有项目,都要使用Redis,面试过程中占比很高,所以是重点学习的内容。
Redis的内容分类为Redis的使用场景,Redis其他面试问题。
面试官问使用场景的时候经常与实际业务进行关联,Redis使用场景一般为缓存(穿透、击穿、雪崩、双写一致、持久化、数据过期、淘汰策略)、分布式锁(setnx,rediness)、计数器、保存token、消息队列、延迟队列(三个数据类型:普通String、List、ZSet)。主要是缓存和分布式锁。
 其他面试题:(1)集群(主从、哨兵、集群)。(2)事务。(3)Redis为什么快。

使用场景:
Redis的数据持久化策略有哪些
什么是缓存穿透,怎么解决
什么是布隆过滤器
什么是缓存击穿,怎么解决
什么是缓存雪崩,怎么解决
redis双写问题
Redis分布式锁如何实现
Redis实现分布式锁如何合理的控制锁的有效时长
Redis的数据过期策略有哪些
Redis的数据淘汰策略有哪些
其他面试题:
Redis集群有哪些方案,知道嘛
什么是 Redis 主从同步
你们使用Redis是单点还是集群?哪种集群
Redis分片集群中数据是怎么存储和读取的
redis集群脑裂
怎么保证redis的高并发高可用
你们用过Redis的事务吗?事务的命令有哪些
Redis是单线程的,但是为什么还那么快?

2 使用场景

redisredis_37">面试官提问1:我看你做的项目中,都用到了redis,你在最近的项目中哪些场景使用了redis呢?

我们不能单纯说Redis会用在哪,一定要结合简历上的项目,问题的本质是考察

  • 一是验证你的项目场景的真实性,二是为了作为深入发问的切入点
  • 缓存
  • 分布式锁
  • 消息队列、延迟队列

当你回答了缓存,那就会涉及到(面试官可能会深入提问)缓存三兄弟(穿透、击穿、雪崩)、双写一致、持久化、数据过期策略数、据淘汰策略。
回答分布式锁的话,就会涉及setnx、redisson

面试官会接着问你1.1:如果发生了缓存穿透、击穿、雪崩,该如何解决?

2.1缓存穿透

如果一个人想攻击你的系统,获取了你的请求路径之后,就会用一些假的Id,比如下面请求中1的位置就是Id,或者很大的值,负的值。
在这里插入图片描述

定义:缓存穿透:查询一个不存在的数据,mysql查询不到数据也不会直接写入缓存,就会导致每次请求都查数据库。(可能会导致数据库压力过大而宕机。)

解决方案一:缓存空数据,查询返回的数据为空,仍把这个空结果进行缓存。{key:1,value:null}
优点:简单
缺点:消耗内存,可能会发生不一致的问题,比如我会存上key1为的数据,但这时候redis中村的key为1对应的value还是null;

解决方案二: 布隆过滤器
优点:内存占用较少,没有多余key
缺点:实现复杂,存在误判
在这里插入图片描述



下面介绍一下布隆过滤器。
在这里插入图片描述
工作原理:布隆过滤器通过使用多个哈希函数和一个位数组来存储信息。其主要步骤如下:

  1. 初始化:创建一个位数组,所有位初始化为0。
  2. 添加元素:对于每个要加入集合的元素,布隆过滤器通过多个哈希函数生成多个哈希值,然后在位数组的对应位置将这些值设为1。
  3. 查询元素:要检查某个元素是否在集合中,布隆过滤器通过相同的哈希函数计算该元素的哈希值,并检查位数组中对应位置的值。如果所有位置都是1,集合中可能有该元素;如果有任何位置是0,则肯定不在集合中。

一般会将误判率设置在5%以内,这个误判率一般的项目可以接受,也不会使得数据库在高并发下被压倒。

总结

  1. Redis的使用场景
    根据自己简历上的业务进行回答
    缓存       穿透、击穿、雪崩、双写一致、持久化、数据过期、淘汰策略
    分布式锁    setnx、redisson
  2. 什么是缓存穿透,怎么解决
    缓存穿透:查询一个不存在的数据,mysql查询不到数据也不会直接写入缓存,就会导致每次请求都查数据库
    解决方案一:缓存空数据
    解决方案二:布隆过滤器

面试文稿

  1. 什么是缓存穿透?怎么解决?
    候选人:嗯,我想一下。缓存穿透是指查询一个一定不存在的数据,由于存储层查不到数据因此不写入缓存,这将导致这个不存在的数据每次请求都要到 DB 去查询,可能导致 DB 挂掉。这种情况大概率是遭到了攻击。解决方案的话,我们通常都会用布隆过滤器来解决它。

  2. 你能介绍一下布隆过滤器吗?
    候选人:嗯,是这样的。布隆过滤器主要是用于检索一个元素是否在一个集合中。(Self:通过在前端部署一个布隆过滤器,可以预先判断该键很可能不存在于数据库中,从而避免对数据库发起无效请求。)我们当时使用的是Redisson实现的布隆过滤器。它的底层原理是,先初始化一个比较大的位数组,里面存放的是二进制0或1。一开始都是0,当一个key来了之后,经过3次hash计算,模数组长度找到数据的下标,然后把数组中原来的0改为1。这样,三个数组的位置就能标明一个key的存在。查找的过程也是一样的。当然,布隆过滤器有可能会产生一定的误判,我们一般可以设置这个误判率,大概不会超过5%。其实这个误判是必然存在的,要不就得增加数组的长度。5%以内的误判率一般的项目也能接受,不至于高并发下压倒数据库。

2.2 缓存击穿

定义:缓存击穿:给某一个key设置了过期时间,当key过期的时候,恰好这时间点对这个key有大量的并发请求过来,这些并发的请求可能会瞬间把DB压垮。
你可能会问:我们对相同的key进行n个(大量的)请求,那么n=1的时候,我们会把返回的数据存储到Redis,那之后n-1次查询不就可以直接从Redis中查了吗?那怎么还会压垮DB呢?那是因为n=1在存储数据的时候,我们花费了过多的时间来往Redis中存数据,恰好这时间点对这个key有大量的并发请求过来,这些并发的请求可能会瞬间把DB压垮。为什么会有50ms呢,因为有些来自DB的数据是DB中多个表汇总的结果,可能需要分组统计才能得到要往Redis中存储的数据。
在这里插入图片描述
解决方案一:互斥锁      保证数据的强一致性、性能差。

在这里插入图片描述

解决方案二:逻辑过期     高可用、性能优

在这里插入图片描述
GPT:逻辑过期(Logical Expiration)是缓存管理中的一种策略,它与传统的“物理过期”(Physical Expiration)有显著的区别。在逻辑过期中,缓存的数据不会在某个时间点自动失效,而是通过应用程序内部的控制机制来决定何时认为缓存数据已经“过期”,并触发更新或重新加载数据。逻辑过期与物理过期的区别:物理过期:数据会在固定时间点(比如缓存的 TTL(生存时间)到期)自动过期,缓存系统会自动删除或失效该数据。此时,缓存数据与数据库的数据可能不一致。例如:如果设置了1小时的TTL,当时间到达时,缓存会自动失效并删除。任何对该数据的访问都将导致缓存穿透,直接访问数据库。逻辑过期:缓存数据不会在固定的时间点过期,而是通过应用逻辑来决定何时更新缓存数据。即使缓存中的数据“过期”,在物理层面缓存依然存在,只是标记为过期,程序会根据应用逻辑判断是否需要重新加载数据。例如:在一个用户信息缓存中,可以在缓存数据中增加一个字段(如 last_updated_time),应用逻辑会判断缓存数据是否超过某个时间阈值,并根据该判断决定是否重新加载数据。

这两种方案不一定要分个高下,要分情况用不同方案。强调数据准确性,用前者,强调用户体验,用后者。

总结

  1. 缓存击穿
    缓存击穿:给某一个key设置了过期时间,当key过期的时候,恰好这时间点对这个key有大量的并发请求过来,这些并发的请求可能会瞬间把DB压垮
  2. 解决方案一:互斥锁,强一致,性能差
  3. 解决灰案二:逻辑过期,高可用,性能优,不能保证数据绝对一致

面试文稿

什么是缓存击穿?怎么解决?

候选人:嗯!缓存击穿的意思是,对于设置了过期时间的key,缓存在某个时间点过期的时候,恰好这个时间点对这个Key有大量的并发请求过来。这些请求发现缓存过期,一般都会从后端 DB 加载数据并回设到缓存,这个时候大并发的请求可能会瞬间把 DB 压垮。解决方案有两种方式:第一,可以使用互斥锁:当缓存失效时,不立即去load db,先使用如 Redis 的 SETNX 去设置一个互斥锁。当操作成功返回时,再进行 load db的操作并回设缓存,否则重试get缓存的方法。第二种方案是设置当前key逻辑过期,大概思路如下:1) 在设置key的时候,设置一个过期时间字段一块存入缓存中,不给当前key设置过期时间;2) 当查询的时候,从redis取出数据后判断时间是否过期;3) 如果过期,则开通另外一个线程进行数据同步,当前线程正常返回数据,这个数据可能不是最新的。当然,两种方案各有利弊:如果选择数据的强一致性,建议使用分布式锁的方案,但性能上可能没那么高,且有可能产生死锁的问题。如果选择key的逻辑删除,则优先考虑高可用性,性能比较高,但数据同步这块做不到强一致。

2.3 缓存雪崩

定义:缓存雪崩是指在同一时段大量的缓存key同时失效或者Redis服务宕机,导致大量请求到达数据库,带来巨大压力。
在这里插入图片描述
解决方案1:给不同的Key的TTL添加随机值。(针对同一时段大量的缓存key同时失效)
解决方案2:利用Redis集群提高服务的可用性 哨兵模式、集群模式 (针对Redis服务宕机)
解决方案3:给缓存业务添加降级限流策略 ngxin(单体项目中)或spring cloud gateway(微服务项目中)
解决方案4:给业务添加多级缓存 Guava或Caffeine (预防大量Key过期)

总结

  1. 缓存雪崩
    缓存雪崩是指在同一时段大量的缓存key同时失效或者Redis服务宕机,导致大量请求到达数据库,带来巨大压力。
  2. 解决方案:
    给不同的Key的TTL添加随机值
    利用Redis集群提高服务的可用性
    给缓存业务添加降级限流策略 (降级可做为系统的保底策略,适用于穿透、击穿、雪崩)
    给业务添加多级缓存

面试文稿

什么是缓存雪崩?怎么解决?

候选人:嗯!缓存雪崩意思是,设置缓存时采用了相同的过期时间,导致缓存在某一时刻同时失效,请求全部转发到DB,DB瞬时压力过重而雪崩。与缓存击穿的区别是:雪崩是很多key,而击穿是某一个key缓存。解决方案主要是,可以将缓存失效时间分散开。比如,可以在原有的失效时间基础上增加一个随机值,比如1-5分钟随机。这样,每一个缓存的过期时间的重复率就会降低,就很难引发集体失效的事件。

《缓存三兄弟》

穿透无中生有key,布隆过滤nuIl隔离:
缓存击穿过期key,锁与非期解难题。
雪崩大量过期key,过期时间要随机。
面试必考三兄弟,可用限流来保底。

redismysqlredis_138">面试官会接着问你1.2:redis做为缓存,mysql的数据如何与redis进行同步呢?(双写一致性)

一定、一定、一定要设置前提,先介绍自己的业务背景,自己的业务如果一致性要求高是一种方案,允许延迟一致那就是另外一种方案了。

2.4 双写一致性

定义:双写一致性:当修改了数据库的数据也要同时更新缓存的数据,缓存和数据库的数据要保持一致
在这里插入图片描述

方案1:一致性要求高

读操作:缓存命中,直接返回;缓存未命中查询数据库,写入缓存,设定超时时间
写操作:延迟双删
在这里插入图片描述

通过三个问题解决为什么用延迟双删

  1. 先删除缓存,还是先修改数据库?
    下图表明先删除缓存,还是先修改数据库,哪个先干都不行。
    在这里插入图片描述

  2. 为什么要删除两次缓存? 因为上图表明仅删除一次不行,都会有脏数据的出现。

  3. 为什么要延时删除? 数据库一般是主从结构,延迟的那段时间可以让主DB把数据交给从DB。但是延迟的时间不好控制,没法做到百分之百的数据的强一致性。如何能做到呢? 加锁

在这里插入图片描述
但是如上图加锁的话性能不够好,比较慢。由于使用Redis,将数据放入缓存中的数据库一般都是读多写少,(写多读少的直接操作数据库比较省事)。

我们介绍两种新锁:

共享锁:读锁readLock,加锁之后,其他线程可以共享读操作

排他锁:独占锁writeLock也叫,加锁之后,阻塞其他线程读写操作
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

注意其中的锁名"ITEM _READ_WRITE_LOCK"要一直,不然没法控制。

实现了强一致的数据同步,但是性能低。后面一种场景,允许延迟一致,才是现实生活中被广泛使用的。

方案2:允许延迟一致

方法一如下,使用MQ,异步通知保证数据的最终一致性,需要保证MQ的可靠性。(后续会讲MQ)
在这里插入图片描述
方法二如下,基于Canal(阿里发明的中间件)的异步通知:
在这里插入图片描述
canal是基于mysql的主从同步来实现的
二进制日志(BINLOG)记录了所有的 DDL(数据定义语言)语句和 DML(数据操纵语言)语句,但不包括数据查询(SELECT、SHOW)语句。

总结

  1. redis做为缓存,mysql的数据如何与redis进行同步呢?(双写一致性)
    介绍自己简历上的业务
    第一种:我们当时是把文章的热点数据存入到了缓存中,虽然是热点数据,但是实时要求性并没有那么高,所以,我们当时采用的是异步的方案同步的数据
    第二种:我们当时是把抢券的库存存入到了缓存中,这个需要实时的进行数据同步,为了保证数据的强一致
    我们当时采用的是redisson提供的读写锁来保证数据的同步

  2. 那你来介绍一下异步的方案(你来介绍-下redisson读写锁的这种方案)
    1)允许延时一致的业务,采用异步通知 对应第一种
    使用MQ中间中间件,更新数据之后,通知缓存删除
    利用canal中间件,不需要修改业务代码,伪装为mysql的一个从节点,canal通过读取binlog数据更新缓存
    2)强一致性的,采用Redisson提供的读写锁 对应第二种
    共享锁:读锁readLock,加锁之后,其他线程可以共享读操作
    排他锁:独占锁writeLock也叫,加锁之后,阻塞其他线程读写操作

面试文稿

面试官:redis做为缓存,mysql的数据如何与redis进行同步呢?(双写一致性)

候选人:嗯!就说我最近做的这个项目,里面有xxxx(根据自己的简历上写)的功能,需要让数据库与redis高度保持一致,因为要求时效性比较高,我们当时采用的读写锁保证的强一致性。
我们采用的是redisson实现的读写锁,在读的时候添加共享锁,可以保证读读不互斥,读写互斥。当我们更新数据的时候,添加排他锁,它是读写,读读都互斥,这样就能保证在写数据的同时是不会让其他线程读数据的,避免了脏数据。这里面需要注意的是读方法和写方法上需要使用同一把锁才行。

面试官:那这个排他锁是如何保证读写、读读互斥的呢?

候选人:其实排他锁底层使用也是setnx(SET if Not eXists),保证了同时只能有一个线程操作锁住的方法

面试官:你听说过延时双删吗?为什么不用它呢?

候选人:延迟双删,如果是写操作,我们先把缓存中的数据删除,然后更新数据库,最后再延时删除缓存中的数据,其中这个延时多久不太好确定,在延时的过程中可能会出现脏数据,并不能保证强一致性,所以没有采用它。

redis_213">面试官会接着问你1.3:redis做为缓存,数据的持久化是怎么做的?

2.5 持久化

在Redis中提供了两种数据持久化的方式: 1、RDB    2、AOF

RDB

RDB全称Redis Database Backup file(Redis数据备份文件),也被叫做Redis数据快照。简单来说就是把内存中的
所有数据都记录到磁盘中。当Redis实例故障重启后,从磁盘读取快照文件,恢复数据。

主动备份如下:

[root@localhost ~]# redis-cli
127.0.0.1:6379> save #由Redis主进程来执行RDB,备份过程中会阻塞所有命令,如果Redis中有大文件,会阻塞很久
127.0.0.1:6379> bgsave #开启子进程执行RDB,避免主进程受到影响
Background saving started

被动备份:Redis内部有触发RDB的机制,可以在redis.conf文件中找到,格式如下:

# 900秒内,如果至少有1个key被修改,则执行bgsave
save 900 1
save 300 10
save 60 10000

以上是实操,那么RDB的执行原理是什么?
在这里插入图片描述

AOF

AOF全称为Append Only File(追加文件)。Redis处理的每一个写命令都会记录在AOF文件,可以看做是命令日志文件。
在这里插入图片描述
AOF默认是关闭的,需要修改redis.conf配置文件来开启AOF:

#是否开启AOF功能,默认是
noappendonly yes
# AOF文件的名称!
appendfilename "appendonly.aof'

AOF的命令记录的频率也可以通过redis.conf文件来配

# 表示每执行一次写命令,立即记录到AOF文件
appendfsync always
#写命令执行完先放入AOF缓冲区,然后表示每隔1秒将缓冲区数据写到A0F文件,是默认方案
appendfsync everysec
#写命令执行完先放入AOF缓冲区,由操作系统决定何时将缓冲区内容写回磁盘
appendfsync no

一般使用everysec。

在这里插入图片描述

缺点:因为是记录命令,AOF文件会比RDB文件大的多。而且AOF会记录对同一个key的多次写操作,但只有最后一次写操作才有意义。

通过执行bgrewriteaof命令,可以让AOF文件执行重写功能,用最少的命令达到相同效果。

在这里插入图片描述
Redis也会在触发阈值时自动去重写AOF文件。值也可以在redis.conf中配置

# AOF文件比上次文件 增长超过多少百分比则触发重写
auto-aof-rewrite-percentage 100
# AOF文件体积最小多大以上才触发重写
auto-aof-rewrite-min-size 64mb

RDB与AOF对比

RDB和AOF各有自己的优缺点,如果对数据安全性要求较高,在实际开发中往往会结合两者来使用。两个都开启。
在这里插入图片描述

面试文稿

  1. redis做为缓存,数据的持久化是怎么做的?
    候选人:在Redis中提供了两种数据持久化的方式:1) RDB;2) AOF。

  2. 这两种持久化方式有什么区别呢?
    候选人:RDB是一个快照文件。它是把redis内存存储的数据写到磁盘上。当redis实例宕机恢复数据的时候,可以从RDB的快照文件中恢复数据。AOF的含义是追加文件。当redis执行写命令的时候,都会存储到这个文件中。当redis实例宕机恢复数据的时候,会从这个文件中再次执行一遍命令来恢复数据。

  3. 这两种方式,哪种恢复的比较快呢?
    候选人:RDB因为是二进制文件,保存时体积也比较小,所以它恢复得比较快。但它有可能会丢数据。我们通常在项目中也会使用AOF来恢复数据。虽然AOF恢复的速度慢一些,但它丢数据的风险要小很多。在AOF文件中可以设置刷盘策略。我们当时设置的就是每秒批量写入一次命令。

rediskey_287">面试官会接着问1.4 假如redis的key过期之后,会立即删除吗?

定义:Redis对数据设置数据的有效时间(set name heima 10 ),数据过期以后,就需要将数据从内存中删除掉。可以按照不同的规则进行删除,这种删除规则就被称之为数据的删除策略(数据过期策略)。数据过期策略包含两种:惰性删除、定期删除。

2.6 过期策略

Redis数据删除策略1-惰性删除

惰性删除:设置该key过期时间后,我们不去管它,当需要该key时,我们在检查其是否过期,如果过期,我们就删掉它,反之返回该key。

set name zhangsan 10
get name //现name过期了,直接删除key

优点:对CPU友好,只会在使用该key时才会进行过期检查,对于很多用不到的key不用浪费时间进行过期检查
缺点:对内存不友好,如果一个key已经过期,但是一直没有使用,那么该key就会一直存在内存中,内存永远不会释放

Redis数据删除策略2-定期删除

定期删除:每隔一段时间,我们就对一些key进行检查,删除里面过期的key(从一定数量的数据库中取出一定数量的随机key进行检查,并删除其中的过期key)。

定期清理有两种模式:

  • SLOW模式是定时任务,执行频率默认为10hz(每秒10词),每次不超过25ms(防止时间太长,干扰主进程,一次清理不完,等一下,继续清理即可),以通过修改配置文件redis.conf的hz选项来调整这个次数
  • FAST模式执行频率不固定,但两次间隔不低于2ms,每次耗时不超过1ms。

优点:可以通过限制删除操作执行的时长和频率来减少删除操作对 CPU 的影响。另外定期删除,也能有效释放过期键占用的内存。

缺点:难以确定删除操作执行的时长和频率。 频率太慢,和惰性删除一样了,频率太快,影响CPU。

Redis的过期删除策略:惰性删除 + 定期删除两种策略进行配合使用

总结

Redis的数据过期策略
惰性删除:访问key的时候判断是否过期,如果过期,则删除
定期删除:定期检查一定量的key是否过期(SLOW模式+FAST模式)

面试文稿

面试官:Redis的数据过期策略有哪些?

候选人:嗯~,在redis中提供了两种数据过期删除策略
第一种是惰性删除,在设置该key过期时间后,我们不去管它,当需要该key时,我们在检查其是否过期,如果过期,我们就删掉它,反之返回该key。
第二种是 定期删除,就是说每隔一段时间,我们就对一些key进行检查,删除里面过期的key定期清理的两种模式:
SLOW模式是定时任务,执行频率默认为10hz,每次不超过25ms,以通过修改配置文件redis.conf的 hz 选项来调整这个次数
FAST模式执行频率不固定,每次事件循环会尝试执行,但两次间隔不低于2ms,每次耗时不超过1ms
Redis的过期删除策略:惰性删除+定期删除两种策略进行配合使用。

面试官会接着问1.5:假如缓存过多,内存是有限的,内存被占满了怎么办?

2.7数据淘汰策略

定义:数据的淘汰策略:当Redis中的内存不够用时,此时在向Redis中添加新的key,那么Redis就会按照某一种规则将内存中的数据删除掉,这种数据的删除规则被称之为内存的淘汰策略。

Redis支持8种不同策略来选择要删除的key:

  • noeviction:不淘汰任何key,但是内存满时不允许写入新数据,默认就是这种策略
  • volatile-ttl:对设置了TTL的key,比较key的剩余TTL值,TTL越小越先被淘汰
  • allkeys-random:对全体key,随机进行汰。
  • volatile-random:对设置了TTL的key,随机进行淘汰。
  • allkeys-lru:对全体key,基于LRU算法进行淘汰
    在这里插入图片描述
  • volatile-lru:对设置了TTL的key,基于LRU算法进行淘汰
  • allkeysIu:对全体key,基于LFU算法进行淘汰
  • volatile-lfu:对设置了TTL的key,基于LFU算法进行淘汰

数据淘汰策略-使用建议

  1. 优先使用 alkeys-lru 策略。充分利用 LRU 算法的优势,把最近最常访问的数据留在缓存中。如果业务有明显的冷热数据区分,建议使用。为什么不用LFU,因为之前的数据访问频率不一定能反映下一时间数据的使用。
  2. 如果业务中数据访问频率差别不大,没有明显冷热数据区分,建议使用alkeys-random,随机选择淘汰3. 如果业务中有置顶的需求,可以使用 volatile-lru 策略,同时置顶数据不设置过期时间,这些数据就一直不被删除,会淘汰其他设置过期时间的数据。
  3. 如果业务中有短时高频访问的数据,可以使用 allkeys-lfu 或 volatile-lfu 策略。

关于数据淘汰策略其他的面试问题

  1. 数据库有1000万数据,Redis只能缓存20w数据,如何保证Redis中的数据都是热点数据?
    使用allkeys-lru(挑选最近最少使用的数据淘汰)淘汰策略,留下来的都是经常访问的热点数据
  2. Redis的内存用完了会发生什么?
    主要看数据淘汰策略是什么?如果是默认的配置(noeviction),会直接报错

总结:

数据淘汰策略

  1. Redis提供了8种不同的数据淘汰策略(不用记),默认是noeviction不删除任何数据,内存不足直接报错
  2. LRU:最少最近使用。用当前时间减去最后一次访问时间,这个值越大则淘汰优先级越高。
  3. LFU:最少频率使用。会统计每个key的访问频率,值越小淘汰优先级越高

平时开发过程中用的比较多的就是allkeys-lru(结合自己的业务场景)

面试文稿

面试官:Redis的数据淘汰策略有哪些?

候选人:嗯,这个在redis中提供了很多种,默认是noeviction,不删除任何数据,内部不足直接报错是可以在redis的配置文件中进行设置的,里面有两个非常重要的概念,一个是LRU,另外一个是LFU。LRU的意思就是最少最近使用,用当前时间减去最后一次访问时间,这个值越大则淘汰优先级越高。LFU的意思是最少频率使用。会统计每个key的访问频率,值越小淘汰优先级越高我们在项目设置的是alkeys-lru,挑选最近最少使用的数据淘汰,把一些经常访问的key留在redis

面试官:数据库有1000万数据,Redis只能缓存20w数据,如何保证Redis中的数据都是热点数据?

候选人:嗯,我想一下~~
可以使用 alkeys-lru(挑选最近最少使用的数据淘汰)淘汰策略,那留下来的都是经常访问的热点数鋆
面试官:Redis的内存用完了会发生什么?

redis_375">面试官会接着问1.6:redis分布式锁,是如何实现的?

需要结合项目中的业务进行回答,通常情况下,分布式锁使用的场景集群情况下的定时任务、抢单、幂等性场景
抢券仅剩一张的场景:
在这里插入图片描述
在这里插入图片描述
分析一下上面代码在多线程中会不会出现问题。如下图所示,出现了问题。我们需要在本地加锁。
在这里插入图片描述
在这里插入图片描述
如上图所示,我们进行了本地加锁,锁是JVM的,可以解决JVM自己的线程互斥,每台服务器都有一个自己的JVM,但是如果有多台服务器的话呢?本地所无法解决多台服务器下 多JVM的互斥。如下图所示,需要加分布式锁,这时候所有JVM只有一个线程能获得锁。
在这里插入图片描述
下面介绍Redis实现的更强大的分布式锁。

redis_386">2.8 redis分布式锁

Redis实现分布式锁主要利用Redis的setnx命令。setnx是SET if not exists(如果不存在,则 SET)的简写。
获取锁:(为什么不用setnx命令再加一个为锁定时的命令呢,因为要保证原子性)

# 添加锁,NX是互斥、EX是设置超时时间
SET lock value NX EX 10

释放锁:

# 释放锁,删除即可
DEL key

为什么要为锁定时间呢?因为万一你申请了锁,你宕机了,会发生死锁。如下图所示。

在这里插入图片描述

Redis实现分布式锁如何合理的控制锁的有效时长? 如果我业务还没完成,锁就被打开,那没法保证业务完成,没法保证原子性。
根据业务执行时间预估,不行 不好估计,会受网络波动等的影响。
给锁续期,这个比较合理。

redissonredis_407">redisson实现的(redis的)分布式锁-执行流程

在这里插入图片描述
一般业务处理很快,线程2在等待也就是循环过程中就可以获取锁,大大提高了分布式锁的性能。
在这里插入图片描述
trylock中第一个参数是为了获得锁的最大等待时间,第二个参数是当前锁的失效时间,如果你添加了锁的失效时间,那么它就不会设置看门狗了,因为他认为你的业务会在失效时间内完成。如果你传-1或者不传,那就用watch dog 给你续期。

redisson_412">redisson实现的分布式锁-可重入

同一个线程的多个方法可以获得一把锁,因为是同一个线程,不会冲突。
在这里插入图片描述

redisson_416">redisson实现的分布式锁-主从一致性

在这里插入图片描述
还没来得及同步数据,主节点宕机,会选一个新的从节点当主节点。这个新的主节点,会给另外一个应用锁,导致两个线程同时持有一把锁。
在这里插入图片描述
解决方案:RedLock(红锁):不能只在一个redis实例上创建锁,应该是在多个redis实例上创建锁(n/2+1),避免在一个redis实例上加锁。 但是这样:实现复杂、性能差、运维繁琐。
其实服务器宕机出现概率低,Redis是AP思想,高可用性,可以做到最后的一致性,如果要保证数据的强一致性,可以用CP思想的zookeeper。

总结

  1. edis分布式锁,是如何实现的?
    先按照自己简历上的业务进行描述分布式锁使用的场景
    我们当使用的redisson实现的分布式锁,底层是setnx和lua脚本(保证原子性)

  2. Redisson实现分布式锁如何合理的控制锁的有效时长?
    redisson的分布式锁中,提供了一个WatchDog(看门狗)-个线程获取锁成功以后WatchDog会给持有锁的线程续期(默认是每隔10秒续期一次)

  3. Redisson的这个锁,可以重入吗?
    可以重入,多个锁重入需要判断是否是当前线程,在redis中进行存储的时候使用的hash结构来存储线程信息和重入的次数

  4. Redisson锁能解决主从数据一致的问题吗?
    不能解决,但是可以使用redisson提供的红锁来解决,但是这样的话,性能就太低了、如果业务中非要保证数据的强一致性,建议采用zookeeper实现的分布式锁

面试文稿

面试官:Redis分布式锁如何实现?

候选人:嗯,在redis中提供了一个命令setnx(SETifnotexists)
由于redis的单线程的,用了命令之后,只能有一个客户端对某一个key设置值,在没有过期或删除key的时候是其他客户端是不能设置这个key的

面试官:好的,那你如何控制Redis实现分布式锁有效时长呢?

候选人:嗯,的确,redis的setnx指令不好控制这个问题,我们当时采用的redis的一个框架redisson实现的。
redisson中需要手动加锁,并且可以控制锁的失效时间和等待时间,当锁住的一个业务还没有执行完成的时候,在redisson中引入了一个看门狗机制,就是说每隔一段时间就检査当前业务是否还持有锁,如果持有就增加加锁的持有时间,当业务执行完成之后需要使用释放锁就可以了
还有一个好处就是,在高并发下,一个业务有可能会执行很快,先客户1持有锁的时候,客户2来了以后并不会马上拒绝,它会自选不断尝试获取锁,如果客户1释放之后,客户2就可以马上持有锁,性能也得到了提升。

面试官:好的,redisson实现的分布式锁是可重入的吗?

候选人:嗯,是可以重入的。这样做是为了避免死锁的产生。这个重入其实在内部就是判断是否是当前线程持有的锁,如果是当前线程持有的锁就会计数,如果释放锁就会在计算上减一。在存储数据的时候采用的hash结构,大key可以按照自己的业务进行定制,其中小key是当前线程的唯一标识,value是当前线程重入的次数

面试官:redisson实现的分布式锁能解决主从一致性的问题吗

候选人:这个是不能的,比如,当线程1加锁成功后,master节点数据会异步复制到slave节点,此时当前持有Redis锁的master节点宕机,slave节点被提升为新的master节点,假如现在来了一个线程2,再

3 其他面试

面试官提问:Redis集群有哪些方案,知道嘛?

在Redis中提供的集群方案总共有三种:主从复制、哨兵模式、分片集群。

3.1 主从复制

单节点Redis的并发能力是有上限的,要进一步提高Redis的并发能力,就需要搭建主从集群,实现读写分离。
在这里插入图片描述
在这里插入图片描述

那主节点如何同步数据到从节点?

主从数据同步原理

第一:主从全量同步

在这里插入图片描述
截止到第11步就完成了主从数据的完全同步。之后进行同步,都是如同第9步,我们在主节点记录命令,发送给从节点进行执行。那么如何确保发送的时候正好是从节点需要的那部分数据呢?第二个问题,如何知道是第一次同步数据呢?

解决第一个问题:
Replication ld:简称replid,是数据集的标记,id一致则说明是同一数据集。每一个master都有唯一的replidslave则会继承master节点的replid
在这里插入图片描述
解决第二个问题:
offset:偏移量,随着记录在repl baklog中的数据增多而逐渐增大。save完成同步时也会记录当前同步的offset。如果slave的offset小于master的offset,说明slave数据落后于master,需要更新。
在这里插入图片描述

第二:主从增量同步(slave重启或后期数据变化)

在这里插入图片描述

总结:

  1. 介绍-下redis的主从同步
    单节点Redis的并发能力是有上限的,要进一步提高Redis的并发能力,就需要搭建主从集群,实现读写分离。般都是一主多从,主节点负责写数据,从节点负责读数据

  2. 能说一下,主从同步数据的流程?
    全量同步:
    1.从节点请求主节点同步数据(replicationid、offset)
    2.主节点判断是否是第一次请求,是第一次就与从节点同步版本信息(replication id和offset)3.主节点执行bgsave,生成rdb文件后,发送给从节点去执行4.在rdb生成执行期间,主节点会以命令的方式记录到缓冲区(一个日志文件)5.把生成之后的命令日志文件发送给从节点进行同步
    增量同步:
    1.从节点请求主节点同步数据,主节点判断不是第一次请求,不是第一次就获取从节点的offset值2.主节点从命令日志中获取offset值之后的数据,发送给从节点进行数据同步

面试文稿

面试官:Redis集群有哪些方案,知道嘛?

候选人:嗯~,在Redis中提供的集群方案总共有三种:主从复制、哨兵模式、Redis分片集群

面试官:那你来介绍一下主从同步

候选人:嗯,是这样的,单节点Redis的并发能力是有上限的,要进一步提高Redis的并发能力,可以搭建主从集群,实现读写分离。一般都是一主多从,主节点负责写数据,从节点负责读数据,主节点写入数据之后,需要把数据同步到从节点中

面试官:能说一下,主从同步数据的流程

候选人:嗯~~,好!主从同步分为了两个阶段,一个是全量同步,一个是增量同步
全量同步是指从节点第一次与主节点建立连接的时候使用全量同步,流程是这样的:
第一:从节点请求主节点同步数据,其中从节点会携带自己的replicationid和offset偏移量。
第二:主节点判断是否是第一次请求,主要判断的依据就是,主节点与从节点是否是同一个replicationid,如果不是,就说明是第一次同步,那主节点就会把自己的replicationid和offset发送给从节点,让从节点与主节点的信息保持一致。
第三:在同时主节点会执行bgsave,生成rdb文件后,发送给从节点去执行,从节点先把自己的数据清空,然后执行主节点发送过来的rdb文件,这样就保持了一致
当然,如果在rdb生成执行期间,依然有请求到了主节点,而主节点会以命令的方式记录到缓冲区,缓冲区是一个日志文件,最后把这个日志文件发送给从节点,这样就能保证主节点与从节点完全一致了,后期再同步数据的时候,都是依赖于这个日志文件,这个就是全量同步。
增量同步指的是,当从节点服务重启之后,数据就不一致了,所以这个时候,从节点会请求主节点同步数据,主节点还是判断不是第一次请求,不是第一次就获取从节点的offset值,然后主节点从命令日志中获取offset值之后的数据,发送给从节点进行数据同步

3.2 哨兵

之前的主从集群,无法保证高可用,因为如果主节点坏掉的话,就无法写数据。为了解决这个问题,Redis提供了哨兵(Sentinel)机制来实现主从集群的自动故障恢复。哨兵的结构和作用如下:
在这里插入图片描述

  • 监控:Sentinel会不断检查您的master和slave是否按预期工作
  • 自动故障恢复:如果master故障,Sentinel会将一个slave提升为master。当故障实例恢复后也以新的master为主
  • 通知:Sentinel充当Redis客户端的服务发现来源,当集群发生故障转移时,会将最新信息推送给Redis的客户端

哨兵工作具体内容

在这里插入图片描述

Sentinel基于心跳机制监测服务状态,每隔1秒向集群的每个实例发送ping命令:
主观下线:如果某sentinel节点发现某实例未在规定时间响应,则认为该实例主观下线。
客观下线:若超过指定数量(quorum)的sentinel都认为该实例主观下线,则该实例客观下线。quorum值最好超过Sentinel实例数量的一半。

哨兵选主规则

  1. 首先判断主与从节点断开时间长短,如超过指定值就排该从节点
  2. 然后判断从节点的slave-priority值,越小优先级越高
  3. 如果slave-prority一样,则判断slave节点的offset值,越大优先级越高
  4. 最后是判断slave节点的运行id大小,越小优先级越高。

redis_535">redis集群(哨兵模式)脑裂

在这里插入图片描述
在这里插入图片描述
数据发生了丢失,如何解决这个问题呢?
redis中有两个配置参数:
min-replicas-to-write 1 表示最少的salve节点为1个(GPT:配置最少的从节点数,只有当满足该数量的从节点都已经同步数据时,主节点才会接受客户端的写请求。这样可以确保写入的数据被复制到足够多的从节点上。)
min-replicas-max-lag 5 表示数据复制和同步的延迟不能超过5秒(GPT:设置主节点与从节点之间允许的最大同步延迟。如果从节点的同步延迟超过该值,主节点将不会接受新的写请求,从而避免主从数据不同步时可能发生的数据丢失。)

总结

  1. 怎么保证Redis的高并发高可用
    哨兵模式:实现主从集群的自动故障恢复(监控、自动故障恢复、通知)
  2. 你们使用redis是单点还是集群,哪种集群
    主从(1主1从)+哨兵就可以了。单节点不超过10G内存,如果Redis内存不足则可以给不同服务分配独立的Redis主从节点
  3. redis集群脑裂,该怎么解决呢?
    集群脑裂是由于主节点和从节点和sentinel处于不同的网络分区,使得sentinel没有能够心跳感知到主节点,所以通过选举的方式提升了一个从节点为主,这样就存在了两个master,就像大脑分裂了一样,这样会导致客户端还在老的丰节点那里写入数据,新节点无法同步数据,当网络恢复后,sentinel会将老的主节点降为从节点,这时再从新master同步数据,就会导致数据丢失
    解决:我们可以修改redis的配置,可以设置最少的从节点数量以及缩短主从数据同步的延迟时间,达不到要求就拒绝请求就可以避免大量的数据丢失

面试文稿

面试官:怎么保证Redis的高并发高可用

候选人:首先可以搭建主从集群,再加上使用redis中的哨兵模式,哨兵模式可以实现主从集群的自动故障恢复,里面就包含了对主从服务的监控、自动故障恢复、通知;如果master故障,Sentinel会将一个slave提升为master。当故障实例恢复后也以新的master为主;同时Sentinel也充当Redis客户端的服务发现来源,当集群发生故障转移时,会将最新信息推送给Redis的客户端,所以一般项目都会采用哨兵的模式来保证redis的高并发高可用

面试官:你们使用redis是单点还是集群,哪种集群

候选人:嗯!,我们当时使用的是主从(1主1从)加哨兵。一般单节点不超过10G内存,如果Redis内存不足则可以给不同服务分配独立的Redis主从节点。尽量不做分片集群。因为集群维护起来比较麻烦,并且集群之间的心跳检测和数据通信会消耗大量的网络带宽,也没有办法使用lua脚本和事务

面试官:redis集群脑裂,该怎么解决呢?

候选人:嗯!这个在项目很少见,不过脑裂的问题是这样的,我们现在用的是redis的哨兵模式集群的有的时候由于网络等原因可能会出现脑裂的情况,就是说,由于redis master节点和redis salve节点和sentinel处于不同的网络分区,使得sentinel没有能够心跳感知到master,所以通过选举的方式提升了个salve为master,这样就存在了两个master,就像大脑分裂了一样,这样会导致客户端还在old master那里写入数据,新节点无法同步数据,当网络恢复后,sentinel会将oldmaster降为salve,这时再从新master同步数据,这会导致old master中的大量数据丢失。
关于解决的话,我记得在redis的配置中可以设置:第一可以设置最少的salve节点个数,比如设置至少要有一个从节点才能同步数据,第二个可以设置主从数据复制和同步的延迟时间,达不到要求就拒绝请求,就可以避免大量的数据丢失。

3.3 分片集群结构

主从和哨兵可以解决高可用、高并发读的问题。但是依然有两个问题没有解决:
海量数据存储问题
高并发写的问题

使用分片集群可以解决上述问题,分片集群特征:
集群中有多个master,每个master保存不同数据(此时读的并发低了,所以有了下一点)
每个master都可以有多个slave节点(此时没有哨兵,如何监控master的状态呢,下一点解决)
master之间通过ping监测彼此健康状态(那我客户端该向哪个master发送数据呢,任意一个,看下一点)
客户端请求可以访问集群任意节点,最终都会被转发到正确节点
在这里插入图片描述

分片集群结构-(如何实现)数据读写

Redis 分片集群引入了哈希槽的概念,Redis 集群有 16384 个哈希槽,每个 key通过 CRC16 校验后对 16384 取模来决定放置哪个槽,集群的每个节点负责一部分 hash 槽。

在这里插入图片描述
大括号中是有效部分,不是指的话,key本身是有效部分。

总结

  1. redis的分片集群有什么作用?
  • 集群中有多个master,每个master保存不同数据
  • 每个master都可以有多个slave节点
  • master之间通过ping监测彼此健康状态
  • 客户端请求可以访问集群任意节点,最终都会被转发到正确节点
  1. Redis分片集群中数据是怎么存储和读取的?
  • Redis 分片集群引入了哈希槽的概念,Redis 集群有 16384 个哈希槽
  • 将16384个插槽分配到不同的实例
  • 读写数据:根据key的有效部分计算哈希值,对16384取余(有效部分,如果key前面有太括号,大括号的内容就是有效部分,如果没有,则以key本身做为有效部分)余数做为插槽,寻找插槽所在的实例

面试文稿

面试官:redis的分片集群有什么作用

候选人:分片集群主要解决的是,海量数据存储的问题,集群中有多个master,每个master保存不同数据,并且还可以给每个master设置多个slave节点,就可以继续增大集群的高并发能力。同时每个master之间通过ping监测彼此健康状态,就类似于哨兵模式了。当客户端请求可以访问集群任意节点,最终都会被转发到正确节点

面试官:Redis分片集群中数据是怎么存储和读取的?

候选人:嗯~,在redis集群中是这样的

Redis 集群引入了哈希槽的概念,有 16384个哈希槽,集群中每个主节点绑定了一定范围的哈希槽范围, key通过 CRC16 校验后对 16384取模来决定放置哪个槽,通过槽找到对应的节点进行存储。
取值的逻辑是一样的

面试官提问:Redis是单线程的,但是为什么还那么快

Redis是纯内存操作,执行速度非常快
采用单线程,避免不必要的上下文切换可竞争条件,多线程还要考虑线程安全问题
使用I/O多路复用模型,非阻塞I0

面试官会接着问 能解释一下I/O多路复用模型吗?

Redis是纯内存操作,执行速度非常快,它的性能瓶颈是网络延迟而不是执行速度,I/0多路复用模型主要就是实现了高效的网络请求。

为什么Redis可以实现高效的网络请求呢?需要掌握一下几点。

  • 用户空间和内核空间
  • 常见的IO模型
    • 阻塞I0(BlockingIO)
    • 非阻塞I0(NonblockinglO)
    • IO多路复用(IOMultiplexing)
  • Redis网络模型

在这里插入图片描述

面试文稿

面试官:Redis是单线程的,但是为什么还那么快?

候选人:嗯,这个有几个原因吧~
1、完全基于内存的,C语言编写
2、采用单线程,避免不必要的上下文切换可竞争条件
3、使用多路I/O复用模型,非阻塞I/O
例如:bgsave和 bgrewriteaof 都是在后台执行操作,不影响主线程的正常使用,不会产生阻塞

面试官:能解释一下I/0多路复用模型?

候选人:嗯~~,I/O多路复用是指利用单个线程来同时监听多个Socket,并在某个Socket可读、可写时得到通知,从而避免无效的等待,充分利用CPU资源。目前的I/O多路复用都是采用的epoll模式实现,它会在通知用户进程Socket就绪的同时,把已就绪的Socket写入用户空间,不需要挨个遍历Socket来判断是否就绪,提升了性能。
其中Redis的网络模型就是使用I/O多路复用结合事件的处理器来应对多个Socket请求,比如,提供了连接应答处理器、命令回复处理器,命令请求处理器;
在Redis6.0之后,为了提升更好的性能,在命令回复处理器使用了多线程来处理回复事件,在命令请求处理器中,将命令的转换使用了多线程,增加命令转换速度,在命令执行的时候,依然是单线程


http://www.ppmy.cn/news/1557845.html

相关文章

汇聚点滴启迪思维(三)

switch存在的问题 缺少default语句 ‌switch语句可以包含一个可选的default语句,用于处理没有与任何case标签匹配的情况。如果没有default语句,并且没有与表达式匹配的case标签,程序将不会执行任何操作。 除了case switch包含的大括号中间…

搭建Elastic search群集

一、实验环境 二、实验步骤 Elasticsearch 是一个分布式、高扩展、高实时的搜索与数据分析引擎Elasticsearch目录文件: /etc/elasticsearch/elasticsearch.yml#配置文件 /etc/elasticsearch/jvm.options#java虚拟机 /etc/init.d/elasticsearch#服务启动脚本 /e…

【Django开发】前后端分离django美多商城项目第11篇:商品数据库表设计,1. SPU介绍【附代码文档】

本教程的知识点为: 项目准备 项目准备 配置 1. 修改settings/dev.py 文件中的路径信息 2. INSTALLED_APPS 3. 数据库 用户部分 图片 1. 后端接口设计: 视图原型 2. 具体视图实现 用户部分 使用Celery完成发送 判断帐号是否存在 1. 判断用户名是否存在 后…

分布式爬虫scrapy-redis

Scrapy 爬虫,虽然爬虫是异步加多线程的,但是我们只能在一台主机上运行,所以爬取效率还是有限的,分布式爬虫则是将多台主机组合起来,共同完成一个爬取任务,这将大大提高爬取的效率。 分布式爬虫解决的问题1:爬虫任务共享 所谓分布式爬虫,我们需要做的就是在多台主机上…

Day1 苍穹外卖前端 Vue基础、Vue基本使用方式、Vue-router、Vuex、TypeScript

目录 1.VUE 基础回顾 1.1 基于脚手架创建前端工程 1.1.1 环境要求 1.1.2 脚手架创建项目 1.1.3 工程结构 1.1.4 启动前端服务 1.2 vue基本使用方式 1.2.1 vue 组件 1.2.2 文本插值 1.2.3 属性绑定 1.2.4 事件绑定 1.2.5 双向绑定 1.2.6 条件渲染 1.2.7 跨域问题 1.2.8 axios 1.…

Excel中match()函数

函数功能概述 MATCH 函数是 Excel 中用于在指定区域中查找特定值的位置的函数。它返回指定数值在指定数组区域中的位置。这个位置是相对于查找区域的相对位置,而不是绝对的单元格位置。语法结构 MATCH(lookup_value, lookup_array, match_type)lookup_value&#xf…

WebRTC服务质量(08)- 重传机制(05) RTX机制

一、前言: RTX协议(Retransmission,即重传协议)是 WebRTC 中用于处理丢包恢复的一部分。由于网络通信中的丢包不可避免,WebRTC RTP协议栈支持多种丢包恢复机制,其中之一便是通过RTX协议实现的重传机制。 …

Spring Cloud OpenFeign快速入门demo

一、应用场景 Spring Cloud OpenFeign 是一个声明式的 HTTP 客户端,旨在简化微服务之间的通信。它使得开发者能够通过简单的接口定义和注解来调用 RESTful API,极大地减少了样板代码。以下是一些典型的应用场景: 微服务间调用:在…