之前我们了解了一条查询语句的执行流程并介绍了执行过程中涉及的处理模块。一条查询语句的执行过程一般是经过连接器、分析器、优化器、执行器等功能模块最后到达存储引擎。
那么一条 SQL 更新语句的执行流程又是怎样的呢
首先我们创建一个表 user_info主键为 id创建语句如下
CREATE TABLE `T` (
`ID` int(11) NOT NULL,
`c` int(11) DEFAULT NULL,
PRIMARY KEY (`ID`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4;
插入一条数据
INSERT INTO T VALUES ('2', '1');
如果要将 ID=2 这一行的 c 的值加 1SQL 语句为
UPDATE T SET c = c + 1 WHERE ID = 2;
前面介绍过 SQL 语句基本的执行链路这里把那张图拿过来。因为更新语句同样会走一遍查询语句走的流程。
- 通过连接器客户端与 MySQL 建立连接
- update 语句会把 T 表上的所有查询缓存结果清空
- 分析器会通过词法分析和语法分析识别这是一条更新语句
- 优化器会决定使用 ID 这个索引聚簇索引
- 执行器负责具体执行找到匹配的一行然后更新
- 更新过程中还会涉及 redo log重做日志和 binlog归档日志的操作
其中这两种日志默认在数据库的 data 目录下redo log 是 ib_logfile0 格式的binlog 是 xxx-bin.000001 格式的。
接下来让我们分别去研究下日志模块中的 redo log 和 binlog。
日志模块redo log
在 MySQL 中如果每一次的更新操作都需要写进磁盘然后磁盘也要找到对应的那条记录然后再更新整个过程 IO 成本、查找成本都很高。为了解决这个问题MySQL 的设计者就采用了日志redo log来提升更新效率。
而日志和磁盘配合的整个过程其实就是 MySQL 里的 WAL 技术WAL 的全称是 Write-Ahead Logging它的关键点就是先写日志再写磁盘。
具体来说当有一条记录需要更新的时候InnoDB 引擎就会先把记录写到 redo logredolog buffer里面并更新内存buffer pool这个时候更新就算完成了。同时InnoDB 引擎会在适当的时候如系统空闲时将这个操作记录更新到磁盘里面刷脏页。
redo log 是 InnoDB 存储引擎层的日志又称重做日志文件redo log 是循环写的redo log 不是记录数据页更新之后的状态而是记录这个页做了什么改动。
redo log 是固定大小的比如可以配置为一组 4 个文件每个文件的大小是 1GB那么日志总共就可以记录 4GB 的操作。从头开始写写到末尾就又回到开头循环写如下图所示。
图中展示了一组 4 个文件的 redo log 日志checkpoint 是当前要擦除的位置擦除记录前需要先把对应的数据落盘更新内存页等待刷脏页。write pos 到 checkpoint 之间的部分可以用来记录新的操作如果 write pos 和 checkpoint 相遇说明 redolog 已满这个时候数据库停止进行数据库更新语句的执行转而进行 redo log 日志同步到磁盘中。checkpoint 到 write pos 之间的部分等待落盘先更新内存页然后等待刷脏页。
有了 redo log 日志那么在数据库进行异常重启的时候可以根据 redo log 日志进行恢复也就达到了 crash-safe。
redo log 用于保证 crash-safe 能力。innodb_flush_log_at_trx_commit 这个参数设置成 1 的时候表示每次事务的 redo log 都直接持久化到磁盘。这个参数建议设置成 1这样可以保证 MySQL 异常重启之后数据不丢失。
日志模块binlog
MySQL 整体来看其实就有两块一块是 Server 层它主要做的是 MySQL 功能层面的事情还有一块是引擎层负责存储相关的具体事宜。redo log 是 InnoDB 引擎特有的日志而 Server 层也有自己的日志称为 binlog归档日志。
binlog 属于逻辑日志是以二进制的形式记录的是这个语句的原始逻辑依靠 binlog 是没有 crash-safe 能力的。
binlog 有两种模式statement 格式的话是记 sql 语句row 格式会记录行的内容记两条更新前和更新后都有。
sync_binlog 这个参数设置成 1 的时候表示每次事务的 binlog 都持久化到磁盘。这个参数也建议设置成 1这样可以保证 MySQL 异常重启之后 binlog 不丢失。
为什么会有两份日志呢
因为最开始 MySQL 里并没有 InnoDB 引擎。MySQL 自带的引擎是 MyISAM但是 MyISAM 没有 crash-safe 的能力binlog 日志只能用于归档。而 InnoDB 是另一个公司以插件形式引入 MySQL 的既然只依靠 binlog 是没有 crash-safe 能力的所以 InnoDB 使用另外一套日志系统——也就是 redo log 来实现 crash-safe 能力。
redo log 和 binlog 区别
- redo log 是 InnoDB 引擎特有的binlog 是 MySQL 的 Server 层实现的所有引擎都可以使用。
- redo log 是物理日志记录的是在某个数据页上做了什么修改binlog 是逻辑日志记录的是这个语句的原始逻辑。
- redo log 是循环写的空间固定会用完binlog 是可以追加写入的。追加写是指 binlog 文件写到一定大小后会切换到下一个并不会覆盖以前的日志。
有了对这两个日志的概念性理解后再来看执行器和 InnoDB 引擎在执行这个 update 语句时的内部流程。
- 执行器先找引擎取 ID=2 这一行。ID 是主键引擎直接用树搜索找到这一行。如果 ID=2 这一行所在的数据页本来就在内存中就直接返回给执行器否则需要先从磁盘读入内存然后再返回。
- 执行器拿到引擎给的行数据把这个值加上 1比如原来是 N现在就是 N+1得到新的一行数据再调用引擎接口写入这行新数据。
- 引擎将这行新数据更新到内存InnoDB Buffer Pool中同时将这个更新操作记录到 redo log 里面此时 redo log 处于 prepare 状态。然后告知执行器执行完成了随时可以提交事务。
- 执行器生成这个操作的 binlog并把 binlog 写入磁盘。
- 执行器调用引擎的提交事务接口引擎把刚刚写入的 redo log 改成提交commit状态更新完成。
下图为 update 语句的执行流程图图中灰色框表示是在 InnoDB 内部执行的绿色框表示是在执行器中执行的。
其中将 redo log 的写入拆成了两个步骤prepare 和 commit这就是两阶段提交2PC。
两阶段提交2PC
MySQL 使用两阶段提交主要解决 binlog 和 redo log 的数据一致性的问题。
redo log 和 binlog 都可以用于表示事务的提交状态而两阶段提交就是让这两个状态保持逻辑上的一致。下图为 MySQL 二阶段提交简图
两阶段提交原理描述:
- InnoDB redo log 写盘InnoDB 事务进入 prepare 状态。
- 如果前面 prepare 成功binlog 写盘那么再继续将事务日志持久化到 binlog如果持久化成功那么 InnoDB 事务则进入 commit 状态(在 redo log 里面写一个 commit 记录)
备注: 每个事务 binlog 的末尾会记录一个 XID event标志着事务是否提交成功也就是说recovery 过程中binlog 最后一个 XID event 之后的内容都应该被 purge。
日志相关问题
怎么进行数据恢复
binlog 会记录所有的逻辑操作并且是采用追加写的形式。当需要恢复到指定的某一秒时比如今天下午二点发现中午十二点有一次误删表需要找回数据那你可以这么做
- 首先找到最近的一次全量备份从这个备份恢复到临时库
- 然后从备份的时间点开始将备份的 binlog 依次取出来重放到中午误删表之前的那个时刻。
这样你的临时库就跟误删之前的线上库一样了然后你可以把表数据从临时库取出来按需要恢复到线上库去。
redo log 和 binlog 是怎么关联起来的?
redo log 和 binlog 有一个共同的数据字段叫 XID。崩溃恢复的时候会按顺序扫描 redo log
- 如果碰到既有 prepare、又有 commit 的 redo log就直接提交
- 如果碰到只有 parepare、而没有 commit 的 redo log就拿着 XID 去 binlog 找对应的事务。
MySQL 怎么知道 binlog 是完整的?
一个事务的 binlog 是有完整格式的
- statement 格式的 binlog最后会有 COMMIT
- row 格式的 binlog最后会有一个 XID event
在 MySQL 5.6.2 版本以后还引入了 binlog-checksum 参数用来验证 binlog 内容的正确性。对于 binlog 日志由于磁盘原因可能会在日志中间出错的情况MySQL 可以通过校验 checksum 的结果来发现。所以MySQL 是有办法验证事务 binlog 的完整性的。
redo log 一般设置多大
redo log 太小的话会导致很快就被写满然后不得不强行刷 redo log这样 WAL 机制的能力就发挥不出来了。
如果是几个 TB 的磁盘的话直接将 redo log 设置为 4 个文件每个文件 1GB。
数据写入后的最终落盘是从 redo log 更新过来的还是从 buffer pool 更新过来的呢
实际上redo log 并没有记录数据页的完整数据所以它并没有能力自己去更新磁盘数据页也就不存在由 redo log 更新过去数据最终落盘的情况。
- 数据页被修改以后跟磁盘的数据页不一致称为脏页。最终数据落盘就是把内存中的数据页写盘。这个过程与 redo log 毫无关系。
- 在崩溃恢复场景中InnoDB 如果判断到一个数据页可能在崩溃恢复的时候丢失了更新就会将它读到内存然后让 redo log 更新内存内容。更新完成后内存页变成脏页就回到了第一种情况的状态。
redo log buffer 是什么是先修改内存还是先写 redo log 文件
在一个事务的更新过程中日志是要写多次的。比如下面这个事务
begin;
INSERT INTO T1 VALUES ('1', '1');
INSERT INTO T2 VALUES ('1', '1');
commit;
这个事务要往两个表中插入记录插入数据的过程中生成的日志都得先保存起来但又不能在还没 commit 的时候就直接写到 redo log 文件里。
因此就需要 redo log buffer 出场了它就是一块内存用来先存 redo 日志的。也就是说在执行第一个 insert 的时候数据的内存被修改了redo log buffer 也写入了日志。
但是真正把日志写到 redo log 文件是在执行 commit 语句的时候做的。
以下是我截取的部分 redo log buffer 的源代码
/** redo log buffer */
struct log_t{
char pad1[CACHE_LINE_SIZE];
lsn_t lsn;
ulint buf_free; // buffer 内剩余空间的起始点的 offset
#ifndef UNIV_HOTBACKUP
char pad2[CACHE_LINE_SIZE];
LogSysMutex mutex;
LogSysMutex write_mutex;
char pad3[CACHE_LINE_SIZE];
FlushOrderMutex log_flush_order_mutex;
#endif /* !UNIV_HOTBACKUP */
byte* buf_ptr; // 隐性的 buffer
byte* buf; // 真正操作的 buffer
bool first_in_use;
ulint buf_size; // buffer大小
bool check_flush_or_checkpoint;
UT_LIST_BASE_NODE_T(log_group_t) log_groups;
#ifndef UNIV_HOTBACKUP
/** The fields involved in the log buffer flush @{ */
ulint buf_next_to_write;
volatile bool is_extending;
lsn_t write_lsn; /*!< last written lsn */
lsn_t current_flush_lsn;
lsn_t flushed_to_disk_lsn;
ulint n_pending_flushes;
os_event_t flush_event;
ulint n_log_ios;
ulint n_log_ios_old;
time_t last_printout_time;
/** Fields involved in checkpoints @{ */
lsn_t log_group_capacity;
lsn_t max_modified_age_async;
lsn_t max_modified_age_sync;
lsn_t max_checkpoint_age_async;
lsn_t max_checkpoint_age;
ib_uint64_t next_checkpoint_no;
lsn_t last_checkpoint_lsn;
lsn_t next_checkpoint_lsn;
mtr_buf_t* append_on_checkpoint;
ulint n_pending_checkpoint_writes;
rw_lock_t checkpoint_lock;
#endif /* !UNIV_HOTBACKUP */
byte* checkpoint_buf_ptr;
byte* checkpoint_buf;
/* @} */
};
redo log buffer 本质上只是一个 byte 数组但是为了维护这个 buffer 还需要设置很多其他的 meta data这些 meta data 全部封装在 log_t 结构体中。
总结
这篇文章主要介绍了 MySQL 里面最重要的两个日志即物理日志 redo log重做日志和逻辑日志 binlog归档日志还讲解了有与日志相关的一些问题。
另外还介绍了与 MySQL 日志系统密切相关的两阶段提交2PC两阶段提交是解决分布式系统的一致性问题常用的一个方案类似的还有 三阶段提交3PC 和 PAXOS 算法。