前言
本文以及接下来的几篇文章将会频繁的使用到我们前边唠叨的InnoDB记录行格式
、页面格式
、索引原理
、表空间的组成
等各种基础知识,如果大家对这些东西理解的不透彻,那么阅读下边的文字可能会特别的些费力,为保证您能正常的理解,请确保自己已经掌握了我们前边学习过的这些知识。
目录
- 一、redo日志是个啥
- 二、redo日志格式
- 2.1 简单的redo日志类型
- 2.2 复杂一些的redo日志类型
- 2.3 redo日志格式小结
- 三、Mini-Transaction
- 3.1 以组的形式写入redo日志
- 3.2 Mini-Transaction的概念
- 四、redo 日志的写入过程
- 4.1 redo log block
- 4.2 redo日志缓冲区
- 4.3 redo日志写入log buffer
- 五、redo日志
- 5.1 redo日志刷盘时机
- 5.2 redo日志文件组
- 5.3 redo日志文件格式
- 六、Log Sequeue Number
- 6.1 flushed_to_disk_lsn
- 6.2 lsn值和redo日志文件偏移量的对应关系
- 6.3 flush链表中的LSN
- 6.4 checkpoint
- 6.5 批量从flush链表中刷出脏页
- 6.6 查看系统中的各种LSN值
- 七、innodb_flush_log_at_trx_commit的用法
- 八、崩溃恢复
- 8.1 确定恢复的起点`在这里插入代码片`
- 8.2 确定恢复的终点
- 8.3 怎么恢复
一、redo日志是个啥
我们知道InnoDB
存储引擎是以页
为单位来管理存储空间的,我们进行的增删改查操作其实本质上都是在访问页面(包括读页面、写页面、创建新页面等操作)。我们前边学习Buffer Pool
的时候说过,在真正访问页面之前,需要把在磁盘上的页缓存到内存中的Buffer Pool
之后才可以访问。但是在学习事务
的时候又强调过一个称之为持久性
的特性,就是说对于一个已经提交的事务,在事务提交后即使系统发生了崩溃,这个事务对数据库中所做的更改也不能丢失。但是如果我们只在内存的Buffer Pool
中修改了页面,假设在事务提交后突然发生了某个故障,导致内存中的数据都失效了,那么这个已经提交了的事务对数据库中所做的更改也就跟着丢失了,这是我们所不能忍受的。那么如何保证这个持久性
呢?一个很简单的做法就是在事务提交完成之前把该事务所修改的所有页面都刷新到磁盘,但是这个简单粗暴的做法有些问题:
-
刷新一个完整的数据页太浪费了
有时候我们仅仅修改了某个页面中的一个字节,但是我们知道在InnoDB中是以页为单位
来进行磁盘IO
的,也就是说我们在该事务提交时不得不将一个完整的页面从内存中刷新到磁盘,我们又知道一个页面默认是16KB大小,只修改一个字节就要刷新16KB的数据到磁盘上显然是太浪费了。 -
随机IO刷起来比较慢
一个事务可能包含很多语句,即使是一条语句也可能修改许多页面,倒霉催的是该事务修改的这些页面可能并不相邻,这就意味着在将某个事务修改的Buffer Pool
中的页面刷新到磁盘时,需要进行很多的随机IO
,尤其对于传统的机械硬盘来说,随机IO比顺序IO要慢很多。
咋办呢?再次回到我们的初心:我们只是想让已经提交了的事务对数据库中数据所做的修改永久生效,即使后来系统崩溃,在重启后也能把这种修改恢复出来
。所以我们其实没有必要在每次事务提交时就把该事务在内存中修改过的全部页面刷新到磁盘,只需要把修改了哪些东西记录一下就好
,比方说某个事务将系统表空间中的第100号页面中偏移量为1000处的那个字节的值1改成2我们只需要记录一下:
将第0号表空间的100号页面的偏移量为1000处的值更新为2。
这样我们在事务提交时,把上述内容刷新到磁盘中,即使之后系统崩溃了,重启之后只要按照上述内容所记录的步骤重新更新一下数据页,那么该事务对数据库中所做的修改又可以被恢复出来,也就意味着满⾜持久性
的要求。因为在系统奔溃重启时需要按照上述内容所记录的步骤重新更新数据页,所以上述内容也被称之为重做日志
,英文名为redo log
,我们也可以称之为redo日志
。与在事务提交时将所有修改过的内存中的页面刷新到磁盘中相比,只将该事务执行过程中产生的redo
日志刷新到磁盘的好处如下:
- redo日志占用的空间非常小
存储表空间ID、页号、偏移量以及需要更新的值所需的存储空间是很小的,关于redo
日志的格式我们稍后会详细唠叨,现在只要知道一条redo日志占用的空间不是很大就好了。 redo
日志是顺序写入
磁盘的
在执行事务的过程中,每执行一条语句,就可能产生若干条redo日志,这些日志是按照产生的顺序写入磁盘的,也就是使用顺序IO。
二、redo日志格式
通过上边的内容我们知道,redo
日志本质上只是记录了一下事务对数据库做了哪些修改。 InnoDB
的针对事务对数据库的不同修改场景定义了多种类型的redo
日志,但是绝大部分类型的redo
日志都有下边这种通用的结构:
各个部分的详细释义如下:
type
:该条redo日志的类型。InnoDB一共为redo
日志设计了53
种不同的类型,稍后会详细介绍不同类型的redo
日志space ID
:表空间IDpage number
:页号data
:该条redo日志的具体内容
2.1 简单的redo日志类型
我们前边介绍InnoDB的记录行格式
的时候说过,如果我们没有为某个表显式的定义主键
,并且表中也没有定义Unique键,那么InnoDB会自动的为表添加一个称之为row_id
的隐藏列作为主键。为这个row_id隐藏列赋值的方式如下:
- 服务器会在内存中维护一个全局变量,每当向某个包含隐藏的
row_id
列的表中插入一条记录时,就会把该变量的值当作新记录的row_id
列的值,并且把该变量自增1
- 每当这个变量的值为
256
的倍数时,就会将该变量的值刷新到系统表空间的页号为7的页面中
一个称之为Max Row ID
的属性处(我们前边介绍表空间结构时详细说过) - 当系统启动时,会将上边提到的
Max Row ID
属性加载到内存中,将该值加上256
之后赋值给我们前边提到的全局变量(因为在上次关机时该全局变量的值可能大于Max Row ID
属性值)
这个Max Row ID
属性占用的存储空间是8
个字节,当某个事务向某个包含row_id
隐藏列的表插入一条记录,并且为该记录分配的row_id
值为256
的倍数时,就会向系统表空间页号为7的页面的相应偏移量处写入8个字节的值。但是我们要知道,这个写入实际上是在Buffer Pool
中完成的,我们需要为这个页面的修改记录一条redo
日志,以便在系统奔溃后能将已经提交的该事务对该页面所做的修改恢复出来。这种情况下对页面的修改是极其简单的,redo
日志中只需要记录一下在某个页面的某个偏移量处修改了⼏个字节的值,具体被修改的内容是啥就好了
,InnoDB
这种极其简单的redo
日志称之为物理日志
,并且根据在页面中写入数据的多少划分了⼏种不同的redo日志类型:
MLOG_1BYTE
(type
字段对应的十进制数字为1
):表示在页面的某个偏移量处写入1个字节的redo
日志类型。MLOG_2BYTE
(type
字段对应的十进制数字为2
):表示在页面的某个偏移量处写入2个字节的redo
日志类型。MLOG_4BYTE
(type
字段对应的十进制数字为4
):表示在页面的某个偏移量处写入4个字节的redo
日志类型。MLOG_8BYTE
(type
字段对应的十进制数字为8
):表示在页面的某个偏移量处写入8个字节的redo
日志类型。MLOG_WRITE_STRING
(type
字段对应的十进制数字为30
):表示在页面的某个偏移量处写入一串数据。
我们上边提到的Max Row ID
属性实际占用8个字节的存储空间,所以在修改页面中的该属性时,会记录一条类型为MLOG_8BYTE
的redo
日志,MLOG_8BYTE
的redo
日志结构如下所示:
其余MLOG_1BYTE
、MLOG_2BYTE
、MLOG_4BYTE
类型的redo
日志结构和MLOG_8BYTE
的类似,只不过具体数据中包含对应个字节的数据罢了。MLOG_WRITE_STRING
类型的redo
日志表示写入一串数据,但是因为不能确定写入的具体数据占用多少字节,所以需要在日志结构中添加一个len
字段:
小提示:
只要将MLOG_WRITE_STRING类型的redo日志的len字段填充上1、2、4、8这些数字,就可以分别替代MLOG_1BYTE、MLOG_2BYTE、MLOG_4BYTE、MLOG_8BYTE这些类型的redo日志,为啥还要多此一举设计这么多类型呢?还不是因为省空间啊,能不写len字段就不写len字段,省一个字节算一个字节。
2.2 复杂一些的redo日志类型
有时候执行一条语句会修改非常多的页面,包括系统数据页面和用户数据页面(用户数据指的就是聚簇索引
和⼆级索引
对应的B+树
)。以一条INSERT
语句为例,它除了要向B+
树的页面中插入数据,也可能更新系统数据Max Row ID
的值,不过对于我们用户来说,平时更关心的是语句对B+树
所做更新:
- 表中包含多少个索引,一条INSERT语句就可能更新多少棵B+树
- 针对某一棵B+树来说,既可能更新叶子节点页面,也可能更新内节点页面,也可能创建新的页面(在该记录插入的叶子节点的剩余空间比较少,不足以存放该记录时,会进行页面的分裂,在内节点页面中添加目录项记录)
在语句执行过程中,INSERT
语句对所有页面的修改都得保存到redo日志
中去。这句话说的比较轻巧,做起来可就比较麻烦了,比方说将记录插入到聚簇索引中时,如果定位到的叶子节点的剩余空间足够存储该记录时,那么只更新该叶子节点页面就好,那么只记录一条MLOG_WRITE_STRING
类型的redo
日志,表明在页面的某个偏移量处增加了哪些数据就好了么?那就太天真了~ 别忘了一个数据页中除了存储实际的记录之后,还有什么File Header
、Page Header
、Page Directory
等等部分(在学习数据页的章节有详细讲解),所以每往叶子节点代表的数据页里插入一条记录时,还有其他很多地方会跟着更新,比如说:
- 可能更新
Page Directory
中的槽信息。 Page Header
中的各种页面统计信息,比PAGE_N_DIR_SLOTS
表示的槽数量可能会更改,PAGE_HEAP_TOP
代表的还未使用的空间最小地址可能会更改,PAGE_N_HEAP
代表的本页面中的记录数量可能会更改,各种信息都可能会被修改。- 我们知道在数据页里的记录是按照索引列从小到大的顺序组成一个单向链表的,每插入一条记录,还需要更新上一条记录的记录头信息中的
next_record
属性来维护这个单向链表。 - 还有别更新的地方,就不唠叨了…
画一个简易的示意图就像是这样:
说了这么多,就是想表达:把一条记录插入到一个页面时需要更改的地方非常多
。这时我们如果使用上边介绍的简单的物理redo日志来记录这些修改时,可以有两种解决方案:
- 方案一:在每个修改的地方都记录一条
redo
日志。也就是如上图所示,有多少个加粗的块,就写多少条物理redo日志。这样子记录redo日志的缺点是显⽽易⻅的,因为被修改的地方是在太多了,可能记录的redo日志占用的空间都比整个页面占用的空间都多了~ - 方案二:将整个页面的
第一个被修改的字节到最后一个修改的字节
之间所有的数据当成是一条物理redo日志中的具体数据。从图中也可以看出来,第一个被修改的字节到最后一个修改的字节之间仍然有许多没有修改过的数据,我们把这些没有修改的数据也加入到redo日志中去岂不是太浪费了~
正因为上述两种使用物理redo日志
的方式来记录某个页面中做了哪些修改比较浪费,设计InnoDB的时候本着勤俭节约的初心,提出了一些新的redo日志类型,比如:
-
MLOG_REC_INSERT
(对应的十进制数字为9):表示插入一条使用非紧凑行格式的记录时的redo日志类型。 -
MLOG_COMP_REC_INSERT
(对应的十进制数字为38):表示插入一条使用紧凑行格式的记录时的redo日志类型。小提示:
Redundant是一种比较原始的行格式,它就是非紧凑的。而Compact、Dynamic以及Compressed行格式是较新的行格式,它们是紧凑的(占用更小的存储空间) -
MLOG_COMP_PAGE_CREATE
(type字段对应的十进制数字为58):表示创建一个存储紧凑行格式记录的页面的redo日志类型。 -
MLOG_COMP_REC_DELETE
(type字段对应的十进制数字为42):表示删除一条使用紧凑行格式记录的redo日志类型。 -
MLOG_COMP_LIST_START_DELETE
(type字段对应的十进制数字为44):表示从某条给定记录开始删除页面中的一系列使用紧凑行格式记录的redo日志类型。 -
MLOG_COMP_LIST_END_DELETE
(type字段对应的十进制数字为43):与MLOG_COMP_LIST_START_DELETE
类型的redo日志呼应,表示删除一系列记录直到MLOG_COMP_LIST_END_DELETE
类型的redo日志对应的记录为止。小提示:
我们前边唠叨InnoDB数据页格式的时候重点强调过,数据页中的记录是按照索引列大小的顺序组成单向链表的。有时候我们会有删除索引列的值在某个区间范围内的所有记录的需求,这时候如果我们每删除一条记录就写一条redo日志的话,效率可能有点低,所以提出MLOG_COMP_LIST_START_DELETE和MLOG_COMP_LIST_END_DELETE类型的redo日志,可以很大程度上减少redo日志的条数。 -
MLOG_ZIP_PAGE_COMPRESS
(type字段对应的十进制数字为51):表示压缩一个数据页的redo日志类型。 -
······还有很多很多种类型,这就不列举了,等用到再说哈~
这些类型的redo日志既包含物理层面的意思,也包含逻辑层面的意思,具体指:
- 物理层面看,这些日志都指明了对哪个表空间的哪个页进行了修改。
- 逻辑层面看,在系统奔溃重启时,并不能直接根据这些日志里的记载,将页面内的某个偏移量处恢复成某个数据,而是需要调用一些事先准备好的函数,执行完这些函数后才可以将页面恢复成系统奔溃前的样子。
大家看到这可能有些懵逼,我们还是以类型为MLOG_COMP_REC_INSERT
这个代表插入一条使用紧凑行格式的记录时的redo日志为例来理解一下我们上边所说的物理层面和逻辑层面到底是个啥意思。废话少说,直接看一下这个类型为MLOG_COMP_REC_INSERT
的redo日志的结构(由于字段太多了,我们把它们竖着看效果好些):
这个类型为MLOG_COMP_REC_INSERT
的redo日志结构有几个地方需要大家注意:
-
我们前边在学习索引的时候说过,在一个数据页里,不论是叶子节点还是非叶子节点,记录都是按照索引列从小到大的顺序排序的。对于二级索引来说,当索引列的值相同时,记录还需要按照主键值进行排序。图中
n_uniques
的值的含义是在一条记录中,需要几个字段的值才能确保记录的唯一性,这样当插入一条记录时就可以按照记录的前n_uniques
个字段进行排序。对于聚簇索引来说,n_uniques
的值为主键的列数,对于其他二级索引来说,该值为索引列数+主键列
数。这里需要注意的是,唯一二级索引的值可能为NULL
,所以该值仍然为索引列数+主键列数
。 -
field1_len ~ fieldn_len
代表着该记录若干个字段占用存储空间的大小,需要注意的是,这里不管该字段的类型是固定⻓度大小的(比如INT
),还是可变⻓度大小(比如VARCHAR(M)
)的,该字段占用的大小始终要写入redo日志中。 -
offset
代表的是该记录的前一条记录在页面中的地址。为啥要记录前一条记录的地址呢?这是因为每向数据页插入一条记录,都需要修改该页面中维护的记录链表,每条记录的记录头信息中都包含一个称为next_record
的属性,所以在插入新记录时,需要修改前一条记录的next_record
属性。 -
我们知道一条记录其实由
额外信息
和真实数据
这两部分组成,这两个部分的总大小就是一条记录占用存储空间的总大小。通过end_seg_len
的值可以间接的计算出一条记录占用存储空间的总大小,为啥不直接存储一条记录占用存储空间的总大小呢?这是因为写redo
日志是一个非常频繁的操作,InnoDB
想方设法想减小redo
日志本身占用的存储空间大小,所以想了一些弯弯绕的算法来实现这个目标,end_seg_len
这个字段就是为了节省redo日志存储空间而提出来的。 -
mismatch_index
的值也是为了节省redo日志的大小而设⽴的,大家可以忽略。
很显然这个类型为MLOG_COMP_REC_INSERT
的redo
日志并没有记录PAGE_N_DIR_SLOTS
的值修改为了啥,PAGE_HEAP_TOP
的值修改为了啥,PAGE_N_HEAP
的值修改为了啥等等这些信息,而只是把在本页面中插入一条记录所有必备的要素记了下来,之后系统奔溃重启时,服务器会调用相关向某个页面插入一条记录的那个函数,而redo
日志中的那些数据就可以被当成是调用这个函数所需的参数,在调用完该函数后,页面中的PAGE_N_DIR_SLOTS
、PAGE_HEAP_TOP
、PAGE_N_HEAP
等等的值也就都被恢复到系统奔溃前的样子了。这就是所谓的逻辑日志的意思。
2.3 redo日志格式小结
虽然上边说了一大堆关于redo
日志格式的内容,但是如果你不是为了写一个解析redo日志的⼯具或者自己开发一套redo日志系统的话,那就没必要把InnoDB中的各种类型的redo日志格式都研究的透透的,没那个必要。上边我只是象征性的介绍了几种类型的redo日志格式,目的还是想让大家明⽩:redo日志会把事务在执行过程中对数据库所做的所有修改都记录下来,在之后系统奔溃重启后可以把事务所做的任何修改都恢复出来
。
小提示:
为了节省redo日志占用的存储空间大小,设计InnoDB的大叔对redo日志中的某些数据还可能进行压缩处理,比方说spacd ID和pagenumber一般占用4个字节来存储,但是经过压缩后,可能使用更小的空间来存储。具体压缩算法就不唠叨了。
三、Mini-Transaction
3.1 以组的形式写入redo日志
语句在执行过程中可能修改若干个页面。比如我们前边说的一条INSERT
语句可能修改系统表空间页号为7的页面的Max Row ID
属性(当然也可能更新别的系统页面,只不过我们没有都列举出来而已),还会更新聚簇索引和二级索引对应B+树
中的页面。由于对这些页面的更改都发生在Buffer Pool
中,所以在修改完页面之后,需要记录一下相应的redo
日志。在执行语句的过程中产生的redo
日志被设计InnoDB的大叔人为的划分成了若干个不可分割的组
,比如:
- 更新
Max Row ID
属性时产生的redo日志是不可分割的。 - 向
聚簇索引对应B+树的页面中插入一条记录
时产生的redo日志是不可分割的。 - 向
某个二级索引对应B+树的页面中插入一条记录
时产生的redo日志是不可分割的。 - 还有其他的一些对页面的访问操作时产生的redo日志是不可分割的。。。
怎么理解这个不可分割的意思呢?我们以向某个索引对应的B+树插入一条记录为例,在向B+树中插入这条记录之前,需要先定位到这条记录应该被插入到哪个叶子节点代表的数据页中,定位到具体的数据页之后,有两种可能的情况:
-
情况一:该数据页的剩余的空闲空间充足,足够容纳这一条待插入记录,那么事情很简单,直接把记录插入到这个数据页中,记录一条类型为
MLOG_COMP_REC_INSERT
的redo日志就好了,我们把这种情况称之为乐观插入
。假如某个索引对应的B+树长这样:现在我们要插入一条键值为
10
的记录,很显然需要被插入到页b
中,由于页b
现在有足够的空间容纳一条记录,所以直接将该记录插入到页b
中就好了,就像这样:
-
情况二:该数据页剩余的空闲空间不足,那么事情就悲剧了,我们前边说过,遇到这种情况要进行所谓的
页分裂操作
,也就是新建一个叶子节点,然后把原先数据页中的一部分记录复制到这个新的数据页中,然后再把记录插入进去,把这个叶子节点插入到叶子节点链表中,最后还要在内节点中添加一条目录项记录
指向这个新创建的页面。很显然,这个过程要对多个页面进行修改,也就意味着会产生多条redo
日志,我们把这种情况称之为悲观插入
。假如某个索引对应的B+树长这样:现在我们要插入一条键值为
10
的记录,很显然需要被插入到页b
中,但是从图中也可以看出来,此时页b已经塞满了记录
,没有更多的空闲空间来容纳这条新记录了,所以我们需要进行页面的分裂操作,就像这样:
如果作为内节点的页a
的剩余空闲空间也不足以容纳增加一条目录项记录
,那需要继续做内节点页a的分裂操作
,也就意味着会修改更多的页面,从而产生更多的redo
日志。另外,对于悲观插入
来说,由于需要新申请数据页,还需要改动一些系统页面,比方说要修改各种段、区的统计信息信息,各种链表的统计信息(比如什么FREE链表、FSP_FREE_FRAG链表
等我们在唠叨表空间那一章中介绍过的各种东东)等等等等,反正总共需要记录的redo日志有二、三十条。小提示:
其实不光是悲观插入一条记录会生成许多条redo日志,设计InnoDB时为了其他的一些功能,在乐观插入时也可能产生多条redo 日志(具体是为了什么功能我们就不多说了,要不篇幅就受不了了~)。
设计InnoDB
的时认为向某个索引对应的B+树中插入一条记录
的这个过程必须是原子的,不能说插了一半之后就停止了。比方说在悲观插入过程中,新的页面已经分配好了,数据也复制过去了,新的记录也插入到页面中了,可是没有向内节点中插入一条目录项记录
,这个插入过程就是不完整的,这样会形成一棵不正确的B+树。我们知道redo
日志是为了在系统奔溃重启时恢复崩溃前的状态,如果在悲观插入的过程中只记录了一部分redo日志,那么在系统奔溃重启时会将索引对应的B+树恢复成一种不正确的状态,这是设计InnoDB时所不能忍受的。所以他们规定在执行这些需要保证原子性的操作时必须以组的形式来记录的redo日志,在进行系统奔溃重启恢复时,针对某个组中的redo日志,要么把全部的日志都恢复掉,要么一条也不恢复
。怎么做到的呢?这得分情况讨论:
-
有的需要保证
原子性
的操作会生成多条redo
日志,比如向某个索引对应的B+树中进行一次悲观插入就需要生成许多条redo日志。如何把这些redo日志划分到一个组里边⼉呢?设计InnoDB的时做了一个很简单的小把戏,就是在该组中的最后一条redo日志后边加上一条特殊类型的redo
日志,该类型名称为MLOG_MULTI_REC_END
,type字段对应的十进制数字为31
,该类型的redo
日志结构很简单,只有一个type
字段:
所以某个需要保证原子性的操作产生的一系列redo日志必须要以一个类型为MLOG_MULTI_REC_END
结尾,就像这样: -
这样在系统奔溃重启进行恢复时,只有当解析到类型为
MLOG_MULTI_REC_END
的redo日志,才认为解析到了一组完整的redo日志,才会进行恢复。否则的话直接放弃前边解析到的redo日志。 -
有的需要保证原子性的操作只生成一条
redo
日志,比如更新Max Row ID
属性的操作就只会生成一条redo日志。其实在一条日志后边跟一个类型为
MLOG_MULTI_REC_END
的redo日志也是可以的,不过InnoDB
的比较勤俭节约,他们不想浪费一个比特位。别忘了虽然redo
日志的类型比较多,但撑死了也就是几十种,是小于127
这个数字的,也就是说我们用7个比特位就足以包括所有的redo
日志类型,而type字段其实是占用1
个字节的,也就是说我们可以省出来一个比特位用来表示该需要保证原子性的操作只产生单一的一条redo
日志,示意图如下: -
如果
type
字段的第一个比特位为1
,代表该需要保证原子性的操作只产生了单一的一条redo日志,否则表示该需要保证原子性的操作产生了一系列的redo日志。
3.2 Mini-Transaction的概念
MySQL对底层页面中的一次原子访问的过程称之为一个Mini-Transaction
,简称mtr
,比如上边所说的修改一次Max Row ID
的值算是一个Mini-Transaction
,向某个索引对应的B+树中插入一条记录的过程也算是一个Mini-Transaction
。通过上边的叙述我们也知道,一个所谓的mtr可以包含一组redo日志,在进行奔溃恢复时这一组redo日志作为一个不可分割的整体
。
一个事务可以包含若干条语句,每一条语句其实是由若干个mtr
组成,每一个mtr
又可以包含若干条redo日志
,画个图表示它们的关系就是这样:
四、redo 日志的写入过程
4.1 redo log block
设计InnoDB
时为了更好的进行系统奔溃恢复,他们把通过mtr
生成的redo
日志都放在了大小为512
字节的页中。为了和我们前边提到的表空间中的页做区别,我们这里把用来存储redo
日志的页称为block
(你心里清楚页和block的意思其实差不多就行了)。一个redo log block
的示意图如下:
真正的redo
日志都是存储到占用496
字节大小的log block body
中,图中的log block header
和log block trailer
存储的是一些管理信息。我们来看看这些所谓的管理信息都是啥:
其中log block header
的几个属性的意思分别如下:
-
LOG_BLOCK_HDR_NO
:每一个block都有一个大于0的唯一标号,本属性就表示该标号值。这个属性是初次使用该
block
时分配的,跟当时的系统lsn
值有关。使用下边的公式计算该block
的LOG_BLOCK_HDR_NO
值:((lsn / 512) & 0x3FFFFFFFUL) + 1
这个公式里的0x3FFFFFFFUL
可能让大家有点困惑,其实它的二进制表示可能更亲切一点:从图中可以看出,
0x3FFFFFFFUL
对应的二进制数的前2位为0,后30位的值都为1。我们刚开始学计算机的时候就学过,一个二进制位与0做与运算(&)
的结果肯定是0,一个二进制位与1做与运算(&)
的结果就是原值。让一个数和0x3FFFFFFFUL
做与运算的意思就是要将该值的前2个比特位的值置为0,这样该值就肯定小于或等于0x3FFFFFFFUL
了。这也就说明了,不论lsn多大,((lsn / 512) & 0x3FFFFFFFUL)
的值肯定在0~0x3FFFFFFFUL
之间,再加1的话肯定在1~0x40000000UL
之间。而0x40000000UL
这个值大家应该很熟悉,这个值就代表着1GB。也就是说系统最多能产生不重复的LOG_BLOCK_HDR_NO
值只有1GB
个。设计InnoDB
规定redo
日志文件组中包含的所有文件大小总和不得超过512GB
,一个block
大小是512
字节,也就是说redo
日志文件组中包含的block
块最多为1GB
个,所以有1GB
个不重复的编号值也就够用了。另外,
LOG_BLOCK_HDR_NO
值的第一个比特位比较特殊,称之为flush bit
,如果该值为1,代表着本block是在某次将log buffer中的block刷新到磁盘的操作中的第一个被刷入的block。 -
LOG_BLOCK_HDR_DATA_LEN
:表示block中已经使用了多少字节,初始值为12
(因为log block body从第12个字节处开始)。随着往block中写入的redo日志越来也多,本属性值也跟着增长。如果log block body已经被全部写满,那么本属性的值被设置为512
-
LOG_BLOCK_FIRST_REC_GROUP
:一条redo日志也可以称之为一条redo日志记录(redo logrecord
),一个mtr会生产多条redo日志记录,这些redo日志记录被称之为一个redo日志记录组
(redo log record group
)。LOG_BLOCK_FIRST_REC_GROUP
就代表该block中第一个mtr
生成的redo
日志记录组的偏移量(其实也就是这个block
里第一个mtr生成的第一条redo
日志的偏移量)。 -
LOG_BLOCK_CHECKPOINT_NO
:表示所谓的checkpoint
的序号,checkpoint
是我们后续内容的重点,现在先不用清楚它的意思,稍安勿躁。
log block trailer
中属性的意思如下:
LOG_BLOCK_CHECKSUM
:表示block的校验值,用于正确性校验,我们暂时不关心它
4.2 redo日志缓冲区
我们前边说过,设计InnoDB时为了解决磁盘速度过慢的问题而引入了Buffer Pool
。同理,写入redo日志时也不能直接直接写到磁盘上,实际上在服务器启动时就向操作系统申请了一大⽚称之为redo log buffer的连续内存空间
,翻译成中文就是redo日志缓冲区
,我们也可以简称为log buffer
。这⽚内存空间被划分成若干个连续的redo log block
,就像这样:
我们可以通过启动参数innodb_log_buffer_size
来指定log buffer
的大小,该启动参数的默认值为16MB
。
mysql> show variables like 'innodb_log_buffer_size';
+------------------------+----------+
| Variable_name | Value |
+------------------------+----------+
| innodb_log_buffer_size | 16777216 |
+------------------------+----------+
1 row in set (0.01 sec)
大型日志缓冲区使大型事务能够运行,而无需在事务提交之前将日志写入磁盘。因此,如果您有更新、插入或删除许多行的事务,则增大日志缓冲区可以节省磁盘 I/O。
mysql> set persist innodb_log_buffer_size =33554432;
Query OK, 0 rows affected (0.04 sec)
4.3 redo日志写入log buffer
向log buffer
中写入redo
日志的过程是顺序的,也就是先往前边的block
中写,当该block
的空闲空间用完之后再往下一个block
中写。当我们想往log buffer
中写入redo
日志时,第一个遇到的问题就是应该写在哪个block的哪个偏移量处
,所以InnoDB
的特意提供了一个称之为buf_free
的全局变量,该变量指明后续写入的redo日志应该写入到log buffer
中的哪个位置,如图所示:
我们前边说过一个mtr
执行过程中可能产生若干条redo
日志,这些redo
日志是一个不可分割的组,所以其实并不是每生成一条redo
日志,就将其插入到logbuffer
中,而是每个mtr
运行过程中产生的日志先暂时存到一个地方,当该mtr
结束的时候,将过程中产生的一组redo
日志再全部复制到log buffer
中。我们现在假设有两个名为T1
、T2
的事务,每个事务都包含2个mtr
,我们给这几个mtr命名一下:
事务T1
的两个mtr
分别称为mtr_T1_1
和mtr_T1_2
事务T2
的两个mtr
分别称为mtr_T2_1
和mtr_T2_2
每个mtr
都会产生一组redo
日志,用示意图来描述一下这些mtr
产生的日志情况:
不同的事务可能是并发执行
的,所以T1、T2之间的mtr可能是交替执行
的。每当一个mtr执行完成时,伴随该mtr生成的一组redo日志就需要被复到log buffer 中
,也就是说不同事务的mtr可能是交替写入log buffer
的,我们画个示意图(为了美观,我们把一个mtr中产生的所有的redo日志当作一个整体来画):
从示意图中我们可以看出来,不同的mtr
产生的一组redo日志占用的存储空间可能不一样,有的mtr产生的redo日志量很少,有的mtr产生的redo日志量非常大。
五、redo日志
5.1 redo日志刷盘时机
我们前边说mtr
运行过程中产生的一组redo
日志在mtr
结束时会被复制到log buffer
中,可是这些日志总在内存里呆着也不是个办法,在一些情况下它们会被刷新到磁盘里,比如:
log buffer空间不足时
:log buffer的大小是有限的(通过系统变量innodb_log_buffer_size
指定),如果不停的往这个有限大小的log buffer里塞入日志,很快它就会被填满。InnoDB
认为如果当前写入log buffer的redo日志量已经占满了log buffer总容量的大约一半左右
,就需要把这些日志刷新到磁盘上。事务提交时
:我们前边说过之所以使用redo
日志主要是因为它占用的空间少,还是顺序写,在事务提交时可以不把
修改过的Buffer Pool
页面刷新到磁盘,但是为了保证持久性,必须要把修改这些页面对应的redo日志刷新到磁盘。后台线程不停的刷
:
后台有一个Master Thread
线程,大约每秒都会刷新一次log buffer
中的redo
日志到磁盘。- 正常关闭服务器时
- 做所谓的
checkpoint
时(我们现在没介绍过checkpoint的概念,稍后会仔细唠叨,稍安勿躁) - 其他的一些情况…
5.2 redo日志文件组
MySQL
的数据目录(使用SHOW VARIABLES LIKE 'datadir'
查看)下默认有两个名为ib_logfile0
和ib_logfile1
的文件,log buffer
中的日志默认情况下就是刷新到这两个磁盘文件中。如果我们对默认的redo
日志文件不满意,可以通过下边几个启动参数来调节:
innodb_log_group_home_dir
:该参数指定了redo日志文件所在的目录,默认值就是当前的数据目录。innodb_log_file_size
:该参数指定了每个redo日志文件的大小,默认值为48MB
innodb_log_files_in_group
:该参数指定redo
日志文件的个数,默认值为2
,最大值为100
。
从上边的描述中可以看到,磁盘上的redo
日志文件不只一个,而是以一个日志文件组
的形式出现的。这些文件以ib_logfile[数字](数字可以是0、1、2...)的形式进行命名
。在将redo日志写入日志文件组时,是从ib_logfile0
开始写,如果ib_logfile0
写满了,就接着ib_logfile1
写,同理,ib_logfile1
写满了就去写ib_logfile2
,依此类推。如果写到最后一个文件该咋办?那就重新转到ib_logfile0
继续写,所以整个过程如下图所示:
总共的redo
日志文件大小其实就是:innodb_log_file_size × innodb_log_files_in_group
小提示:
如果采用循环使用的方式向redo日志文件组里写数据的话,那岂不是要追尾,也就是后写入的redo日志覆盖掉前边写的redo日志?当然可能了!所以InnoDB提出了checkpoint
的概念,稍后我们重点讲解~
5.3 redo日志文件格式
我们前边说过log buffer
本质上是一片连续的内存空间,被划分成了若干个512
字节大小的block
。将log buffer
中的redo
日志刷新到磁盘的本质就是把block
的镜像写入日志文件中,所以redo
日志文件其实也是由若干个512
字节大小的block
组成。redo
日志文件组中的每个文件大小都一样,格式也一样,都是由两部分组成:
- 前
2048
个字节,也就是前4个block
是用来存储一些管理信息的 从第2048字节往后
是用来存储log buffer中的block镜像
的
所以我们前边所说的循环使用redo日志文件,其实是从每个日志文件的第2048个字节开始算,画个示意图就是这样:
普通block
的格式我们在唠叨log buffer
的时候都说过了,就是log block header
、log block body
、log blocktrialer
这三个部分,就不重复介绍了。这里需要介绍一下每个redo日志文件前2048个字节
,也就是前4个特殊block的格式都是干嘛的,废话少说,先看图:
从图中可以看出来,这4个block分别是:
log file header:描述该redo日志文件的一些整体属性,我们看一下它的结构:
各个属性的具体释义如下:
属性名 | 长度(单位:字节) | 描述 |
---|---|---|
LOG_HEADER_FORMAT | 4 | redo日志的版本,该值永远为1 |
LOG_HEADER_PAD1 | 4 | 做字节填充用的,没什么实际意义,忽略~ |
LOG_HEADER_START_LSN | 8 | 标记本redo日志文件开始的LSN值,也就是文件偏移量为2048字节初对应的LSN值(关于什么是LSN我们稍后再看哈,看不懂的先忽略) |
LOG_HEADER_CREATOR | 32 | 一个字符串,标记本redo日志文件的创建者是谁。正常运行时该值为MySQL的版本号,比如:"MySQL使用mysqlbackup命令创建的redo日志文件的该值为"ibbackup"和创建时间。 |
LOG_BLOCK_CHECKSUM | 4 | 本block的校验值,所有block都有,我们不关心 |
小提示:
InnoDB的对redo日志的block格式做了很多次修改,如果你阅读的其他书籍中发现上述的属性和你阅读书籍中的属性有些出入,不要慌,正常现象,另外,LSN值我们后边才会介绍,现在千万别纠结LSN是个啥。
checkpoint1: 记录关于checkpoint的一些属性,看一下它的结构:
各个属性的具体释义如下:
属性名 | 长度(单位:字节) | 描述 |
---|---|---|
LOG_CHECKPOINT_NO | 8 | 服务器做checkpoint的编号,每做一次checkpoint,该值就加1。 |
LOG_CHECKPOINT_LSN | 8 | 服务器做checkpoint结束时对应的LSN值,系统奔溃恢复时将从该值开始。 |
LOG_CHECKPOINT_OFFSET | 8 | 上个属性中的LSN值在redo日志文件组中的偏移量 |
LOG_CHECKPOINT_LOG_BUF_SIZE | 8 | 服务器在做checkpoint操作时对应的logbuffer的大小 |
LOG_BLOCK_CHECKSUM | 4 | 本block的校验值,所有block都有,我们不关心 |
小提示:
现在看不懂上边这些关于checkpoint和LSN的属性的释义是很正常的,我就是想让大家对上边这些属性混个脸熟,后边我们后详细唠叨的。
第三个block:未使用,忽略~
checkpoint2:结构和checkpoint1一样
六、Log Sequeue Number
自系统开始运行,就不断的在修改页面,也就意味着会不断的生成redo
日志。redo
日志的量在不断的递增,就像人的年龄一样,自打出生起就不断递增,永远不可能缩减了。InnoDB
的为记录已经写入的redo
日志量,设计了一个称之为Log Sequeue Number
的全局变量,翻译过来就是:日志序列号,简称lsn
。不过不像人一出生的年龄是0岁,设计InnoDB的大叔规定初始的lsn值为8704
(也就是一条redo日志也没写入时,lsn的值为8704)。
我们知道在向log buffer
中写入redo
日志时不是一条一条写入的,而是以一个mtr
生成的一组redo
日志为单位进行写入的。而且实际上是把日志内容写在了logblock body
处。但是在统计lsn
的增长量时,是按照实际写入的日志量加上占用的log block header
和log block trailer
来计算的。我们来看一个例子:
-
系统第一次启动后初始化
log buffer
时,buf_free
(就是标记下一条redo
日志应该写入到log buffer
的位置的变量)就会指向第一个block
的偏移量为12
字节(log block header
的大小)的地方,那么lsn值也会跟着增加12:
如果某个mtr
产生的一组redo
日志占用的存储空间比较小,也就是待插入的block剩余空闲空间能容纳这个mtr
提交的日志时,lsn
增长的量就是该mtr
生成的redo
日志占用的字节数,就像这样:
-
我们假设上图中
mtr_1
产生的redo
日志量为200
字节,那么lsn
就要在8716
的基础上增加200
,变为8916
。 -
如果某个
mtr
产生的一组redo
日志占用的存储空间比较大,也就是待插入的block
剩余空闲空间不足以容纳这个mtr
提交的日志时,lsn
增长的量就该mtr
生成的redo
日志占用的字节数加上额外占用的log block header
和log block trailer
的字节数,就像这样: -
我们假设上图中
mtr_2
产生的redo
日志量为1000
字节,为了将mtr_2
产生的redo
日志写入log buffer
,我们不得不额外多分配两个block
,所以lsn
的值需要在8916
的基础上增加1000 + 12×2 + 4 × 2 = 1032
小提示:
为什么初始的lsn值为8704呢?我也不太清楚,人家就这么规定的。其实你也可以规定你一生下来算1岁,只要保证随着时间的流逝,你的年龄不断增长就好了。
从上边的描述中可以看出来,每一组由mtr生成的redo日志都有一个唯一的LSN值与其对应,LSN值越小,说明redo日志产生的越早
。
6.1 flushed_to_disk_lsn
redo
日志是首先写到log buffer
中,之后才会被刷新到磁盘上的redo
日志文件。所以InnoDB
提出了一个称之为buf_next_to_write
的全局变量,标记当前log buffer中已经有哪些日志被刷新到磁盘中了
。画个图表示就是这样:
我们前边说lsn
是表示当前系统中写入的redo
日志量,这包括了写到log buffer
而没有刷新到磁盘的日志,相应的,InnoDB提出了一个表示刷新到磁盘中的redo
日志量的全局变量,称之为flushed_to_disk_lsn
。系统第一次启动时,该变量的值和初始的lsn值是相同的,都是8704。随着系统的运行,redo
日志被不断写入log buffer
,但是并不会⽴即刷新到磁盘,lsn的值就和flushed_to_disk_lsn
的值拉开了差距。我们演示一下:
-
系统第一次启动后,向
log buffer
中写入了mtr_1
、mtr_2
、mtr_3
这三个mtr
产生的redo
日志,假设这三个mtr开始和结束时对应的lsn
值分别是:mtr_1
:8716 ~ 8916mtr_2
:8916 ~ 9948mtr_3
:9948 ~ 10000
此时的lsn已经增长到了
10000
,但是由于没有刷新操作,所以此时flushed_to_disk_lsn
的值仍为8704
,如图:
随后进行将log buffer
中的block
刷新到redo
日志文件的操作,假设将mtr_1
和mtr_2
的日志刷新到磁盘,那么flushed_to_disk_lsn
就应该增长mtr_1
和mtr_2
写入的日志量,所以flushed_to_disk_lsn
的值增长到了9948
,如图:
综上所述,当有新的redo
日志写入到log buffer
时,首先lsn
的值会增长,但flushed_to_disk_lsn
不变,随后随着不断有log buffer
中的日志被刷新到磁盘上,flushed_to_disk_lsn
的值也跟着增长。如果两者的值相同时,说明log buffer中的所有redo日志都已经刷新到磁盘中了
。
小提示:
应用程序向磁盘写入文件时其实是先写到操作系统的缓冲区中去,如果某个写入操作要等到操作系统确认已经写到磁盘时才返回,那需要调用一下操作系统提供的fsync函数。其实只有当系统执行了fsync函数后
,flushed_to_disk_lsn
的值才会跟着增长,当仅仅把log buffer中的日志写入到操作系统缓冲区却没有显式的刷新到磁盘时,另外的一个称之为write_lsn的值跟着增长
。不过为了大家理解上的方便,我们在讲述时把flushed_to_disk_lsn
和write_lsn
的概念混淆了起来。
6.2 lsn值和redo日志文件偏移量的对应关系
因为lsn
的值是代表系统写入的redo
日志量的一个总和,一个mtr
中产生多少日志,lsn
的值就增加多少(当然有时候要加上log block header
和log blocktrailer
的大小),这样mtr
产生的日志写到磁盘中时,很容易计算某一个lsn
值在redo
日志文件组中的偏移量,如图:
初始时的LSN
值是8704
,对应文件偏移量2048
,之后每个mtr
向磁盘中写入多少字节日志,lsn
的值就增长多少。
6.3 flush链表中的LSN
我们知道一个mtr
代表一次对底层页面的原子访问,在访问过程中可能会产生一组不可分割的redo
日志,在mtr
结束时,会把这一组redo
日志写入到log buffer
中。除此之外,在mtr
结束时还有一件非常重要的事情要做,就是把在mtr
执行过程中可能修改过的页面加入到Buffer Pool
的flush
链表。为了防止大家早已忘记flush
链表是个啥,我们再看一下图:
当第一次修改某个缓存在Buffer Pool
中的页面时,就会把这个页面对应的控制块插入到flush链表的头部
,之后再修改该页面时由于它已经在flush
链表中了,就不再次插入了。也就是说flush链表中的脏页是按照页面的第一次修改时间从大到小进行排序的
。在这个过程中会在缓存页对应的控制块中记录两个关于页面何时修改的属性:
oldest_modification
:如果某个页面被加载到Buffer Pool
后进行第一次修改,那么就将修改该页面的mtr
开始时对应的lsn值写入这个属性newest_modification
:每修改一次页面,都会将修改该页面的mtr
结束时对应的lsn
值写入这个属性。也就是说该属性表示页面最近一次修改后对应的系统lsn值
我们接着上边唠叨flushed_to_disk_lsn
的例子看一下:
-
假设
mtr_1
执行过程中修改了页a
,那么在mtr_1
执行结束时,就会将页a
对应的控制块加入到flush
链表的头部。并且将mtr_1
开始时对应的lsn
,就是8716
写入页a
对应的控制块的oldest_modification
属性中,把mtr_1
结束时对应的lsn
,也就是8916
写入页a
对应的控制块的newest_modification
属性中。画个图表示一下(为了让图片美观一些,我们把oldest_modification缩写成了o_m,把newest_modification缩写成了n_m
): -
接着假设
mtr_2
执行过程中又修改了页b
和页c
两个页面,那么在mtr_2
执行结束时,就会将页b
和页c
对应的控制块都加入到flush链表
的头部。并且将mtr_2
开始时对应的lsn
,也就是8916
写入页b
和页c
对应的控制块的oldest_modification
属性中,把mtr_2
结束时对应的lsn
,也就是9948
写入页b
和页c
对应的控制块的newest_modification
属性中。画个图表示一下: -
从图中可以看出来,每次新插入到
flush
链表中的节点都是被放在了头部,也就是说flush
链表中前边的脏页修改的时间比较晚,后边的脏页修改时间比较早。 -
接着假设
mtr_3
执行过程中修改了页b
和页d
,不过页b
之前已经被修改过了,所以它对应的控制块已经被插入到了flush链表
,所以在mtr_3
执行结束时,只需要将页d
对应的控制块都加入到flush链表
的头部即可。所以需要将mtr_3
开始时对应的lsn
,也就是9948
写入页d
对应的控制块的oldest_modification
属性中,把mtr_3
结束时对应的lsn
,也就是10000
写入页d
对应的控制块的newest_modification
属性中。另外,由于页b在mtr_3执行过程中又发生了一次修改,所以需要更新页b对应的控制块中newest_modification的值为10000
。画个图表示一下:
总结一下上边说的,就是:flush链表中的脏页按照修改发生的时间顺序进行排序,也就是按照oldest_modification代表的LSN值进行排序,被多次更新的页面不会重复插入到flush链表中,但是会更新newest_modification属性的值
。
6.4 checkpoint
有一个很不幸的事实就是我们的redo日志文件组容量是有限的,我们不得不选择循环使用redo日志文件组中的文件
,但是这会造成最后写的redo日志与最开始写的redo日志追尾
,这时应该想到:redo日志只是为了系统奔溃后恢复脏页用的,如果对应的脏页已经刷新到了磁盘,也就是说即使现在系统奔溃,那么在重启后也用不着使用redo日志恢复该页面了,所以该redo日志也就没有存在的必要了,那么它占用的磁盘空间就可以被后续的redo日志所重用
。也就是说:判断某些redo 日志占用的磁盘空间是否可以覆盖的依据就是它对应的脏页是否已经刷新到磁盘里
。我们看一下前边一直唠叨的那个例子:
如图,虽然mtr_1
和mtr_2
生成的redo
日志都已经被写到了磁盘上,但是它们修改的脏页仍然留在Buffer Pool
中,所以它们生成的redo
日志在磁盘上的空间是不可以被覆盖的。之后随着系统的运行,如果页a
被刷新到了磁盘,那么它对应的控制块就会从flush链表
中移除,就像这样子:
这样mtr_1
生成的redo
日志就没有用了,它们占用的磁盘空间就可以被覆盖掉了。设计InnoDB
的是候提出了一个全局变量checkpoint_lsn
来代表当前系统中可以被覆盖的redo
日志总量是多少,这个变量初始值也是8704
。
比方说现在页a
被刷新到了磁盘,mtr_1生成的redo
日志就可以被覆盖了,所以我们可以进行一个增加checkpoint_lsn
的操作,我们把这个过程称之为做一次checkpoint
。做一次checkpoint
其实可以分为两个步骤:
-
步骤一:计算一下当前系统中可以被覆盖的
redo
日志对应的lsn
值最大是多少redo
日志可以被覆盖,意味着它对应的脏页被刷到了磁盘,只要我们计算出当前系统中被最早修改的脏页对应的oldest_modification
值,那凡是在系统lsn 值小于该节点的oldest_modification
值时产生的redo
日志都是可以被覆盖掉的,我们就把该脏页的oldest_modification
赋值给checkpoint_lsn
。比方说当前系统中
页a
已经被刷新到磁盘,那么flush链表
的尾节点就是页c
,该节点就是当前系统中最早修改的脏页了,它的oldest_modification
值为8916
,我们就把8916赋值给checkpoint_lsn
(也就是说在redo日志对应的lsn值小于8916时就可以被覆盖掉)。 -
步骤二:将
checkpoint_lsn
和对应的redo
日志文件组偏移量以及此次checkpint
的编号写到日志文件的管理信息(就是checkpoint1
或者checkpoint2
)中。InnoDB
维护了一个目前系统做了多少次checkpoint
的变量checkpoint_no
,每做一次checkpoint
,该变量的值就加1
。我们前边说过计算一个lsn
值对应的redo
日志文件组偏移量是很容易的,所以可以计算得到该checkpoint_lsn
在redo
日志文件组中对应的偏移量checkpoint_offset
,然后把这三个值都写到redo
日志文件组的管理信息中。我们说过,每一个
redo
日志文件都有2048
个字节的管理信息,但是上述关于checkpoint
的信息只会被写到日志文件组的第一个日志文件的管理信息中。不过我们是存储到checkpoint1
中还是checkpoint2
中呢?InnoDB规定,当checkpoint_no的值是偶数时,就写到checkpoint1中,是奇数时,就写到checkpoint2中
记录完checkpoint
的信息之后,redo
日志文件组中各个lsn
值的关系就像这样:
6.5 批量从flush链表中刷出脏页
我们在介绍Buffer Pool
的时候说过,一般情况下都是后台的线程在对LRU
链表和flush
链表进行刷脏操作,这主要因为刷脏操作比较慢,不想影响用户线程处理请求。但是如果当前系统修改页面的操作十分频繁,这样就导致写日志操作十分频繁,系统lsn值增长过快。如果后台的刷脏操作不能将脏页刷出,那么系统无法及时做checkpoint
,可能就需要用户线程同步的从flush链表中把那些最早修改的脏页(oldest_modification
最小的脏页)刷新到磁盘,这样这些脏页对应的redo 日志就没用了,然后就可以去做checkpoint
了。
6.6 查看系统中的各种LSN值
我们可以使用SHOW ENGINE INNODB STATUS
命令查看当前InnoDB
存储引擎中的各种LSN
值的情况,比如:
LOG
---
mysql> SHOW ENGINE INNODB STATUS\G;
(...省略前边的许多状态)
Log sequence number 619362521
Log buffer assigned up to 619362521
Log buffer completed up to 619362521
Log written up to 619362521
Log flushed up to 619362521
Added dirty pages up to 619362521
Pages flushed up to 619362521
Last checkpoint at 619362521
Log minimum file id is 176
Log maximum file id is 189
80457 log i/o's done, 0.00 log i/o's/second
(...省略后边的许多状态)
其中:
Log sequence number
:代表系统中的lsn值,也就是当前系统已经写入的redo日志量,包括写入log buffer中的日志。Log flushed up to
:代表flushed_to_disk_lsn
的值,也就是当前系统已经写入磁盘的redo日志量。Pages flushed up to
:代表flush链表中被最早修改的那个页面对应的oldest_modification
属性值。Last checkpoint at
:当前系统的checkpoint_lsn
值。
七、innodb_flush_log_at_trx_commit的用法
我们前边说为了保证事务的持久性
,用户线程在事务提交时需要将该事务执行过程中产生的所有redo
日志都刷新到磁盘上。这一条要求太狠了,会很明显的降低数据库性能。如果有的同学对事务的持久性要求不是那么强烈的话,可以选择修改一个称为innodb_flush_log_at_trx_commit
的系统变量的值,该变量有3个可选的值:
- 0:当该系统变量值为0时,表示在事务提交时不⽴即向磁盘中同步redo日志,这个任务是交给后台线程做的。这样很明显会加快请求处理速度,但是如果事务提交后服务器挂了,后台线程没有及时将redo日志刷新到磁盘,那么该事务对页面的修改会丢失。
- 1:当该系统变量值为1时,表示在事务提交时需要将redo日志同步到磁盘,可以保证事务的持久性。
1也是innodb_flush_log_at_trx_commit的认值
。 - 2:当该系统变量值为2时,表示在事务提交时需要将redo日志写到操作系统的缓冲区中,但并不需要保证将日志真正的刷新到磁盘。这种情况下如果数据库挂了,操作系统没挂的话,事务的持久性还是可以保证的,但是操作系统也挂了的话,那就不能保证持久性了。
八、崩溃恢复
在服务器不挂的情况下,redo
日志简直就是个大累赘,不仅没用,反而让性能变得更差。但是万一,我说万一啊,万一数据库挂了,那redo日志可是个宝了,我们就可以在重启时根据redo日志中的记录就可以将页面恢复到系统奔溃前的状态。我们接下来大致看一下恢复过程是个啥样。
8.1 确定恢复的起点在这里插入代码片
我们前边说过,checkpoint_lsn
之前的redo
日志都可以被覆盖,也就是说这些redo日志对应的脏页都已经被刷新到磁盘中了,既然它们已经被刷盘,我们就没必要恢复它们了。对于checkpoint_lsn
之后的redo
日志,它们对应的脏页可能没被刷盘,也可能被刷盘了,我们不能确定,所以需要从checkpoint_lsn
开始读取redo
日志来恢复页面。当然,redo
日志文件组的第一个文件的管理信息中有两个block
都存储了checkpoint_lsn
的信息,我们当然是要选取最近发生的那次checkpoint
的信息。衡量checkpoint
发生时间早晚的信息就是所谓的checkpoint_no
,我们只要把checkpoint1
和checkpoint2
这两个block
中的checkpoint_no
值读出来比一下大小,哪个的checkpoint_no
值更大,说明哪个block存储的就是最近的一次checkpoint
信息。这样我们就能拿到最近发生的checkpoint
对应的checkpoint_lsn
值以及它在redo日志文件组中的偏移量checkpoint_offset
。
8.2 确定恢复的终点
redo日志恢复的起点确定了,那终点是哪个呢?这个还得从block的结构说起。我们说在写redo日志的时候都是顺序写的,写满了一个block之后会再往下一个block中写:
普通block
的log block header
部分有一个称之为LOG_BLOCK_HDR_DATA_LEN
的属性,该属性值记录了当前block里使用了多少字节的空间。对于被填满的block来说,该值永远为512。如果该属性的值不为512,那么就是它了,它就是此次奔溃恢复中需要扫描的最后一个block。
8.3 怎么恢复
确定了需要扫描哪些redo
日志进行奔溃恢复之后,接下来就是怎么进行恢复了。假设现在的redo日志文件中有5条redo日志,如图:
由于redo0
在checkpoint_lsn
后边,恢复时可以不管它。我们现在可以按照redo
日志的顺序依次扫描checkpoint_lsn
之后的各条redo
日志,按照日志中记载的内容将对应的页面恢复出来。这样没什么问题,不过InnoDB
还是想了一些办法加快这个恢复的过程:
-
使用哈希表
根据redo日志的space ID和page number属性
计算出散列值,把space ID和page number相同的redo日志放到哈希表的同一个槽里
,如果有多个space ID和page number都相同的redo日志,那么它们之间使用链表连接起来,按照生成的先后顺序链接起来的,如图所示: -
之后就可以遍历哈希表,因为对同一个页面进行修改的redo日志都放在了一个槽里,所以可以一次性将一个页面修复好(避免了很多读取页面的随机IO),这样可以加快恢复速度。另外需要注意一点的是,同一个页面的redo日志是按照生成时间顺序进行排序的,所以恢复的时候也是按照这个顺序进行恢复,如果不按照生成时间顺序进行排序的话,那么可能出现错误。比如原先的修改操作是先插入一条记录,再删除该条记录,如果恢复时不按照这个顺序来,就可能变成先删除一条记录,再插入一条记录,这显然是错误的。
-
跳过已经刷新到磁盘的页面
我们前边说过,checkpoint_lsn
之前的redo
日志对应的脏页确定都已经刷到磁盘了,但是checkpoint_lsn
之后的redo
日志我们不能确定是否已经刷到磁盘,主要是因为在最近做的一次checkpoint
后,可能后台线程又不断的从LRU链表和flush链表中将一些脏页刷出Buffer Pool。这些在checkpoint_lsn
之后的redo日志,如果它们对应的脏页在奔溃发生时已经刷新到磁盘,那在恢复时也就没有必要根据redo日志的内容修改该页面了。
那在恢复时怎么知道某个redo
日志对应的脏页是否在奔溃发生时已经刷新到磁盘了呢?这还得从页面的结构说起,我们前边说过每个页面都有一个称之为File Header
的部分,在File Header
里有一个称之为FIL_PAGE_LSN
的属性,该属性记载了最近一次修改页面时对应的lsn值(其实就是页面控制块中的newest_modification
值)。如果在做了某次checkpoint
之后有脏页被刷新到磁盘中,那么该页对应的FIL_PAGE_LSN
代表的lsn值肯定大于checkpoint_lsn
的值,凡是符合这种情况的页面就不需要重复执行lsn
值小于FIL_PAGE_LSN
的redo
日志了,所以更进一步提升了奔溃恢复的速度。