-
一条 SQL 语句是如何执行的
-
MySQL分为Server层和存储引擎层两部分
Server层包括 连接器、查询缓存、分析器、优化器、执行器 五大部分,以及包含了所有的内置函数、跨存储引擎的功能(存储过程、触发器、视图)
(1) 连接器连接器负责跟客户端建立连接、获取权限、维持和管理连接
首先我们先链接上数据库,使用如下命令:
mysql -h$ip -P$port -u$user -p
- 如果账号或者密码错误,则提示
Access denied for user
错误,然后客户端程序结束执行 - 如果密码认证通过,连接器会查询当前用户的所有权限,之后这个连接里面的权限判断逻辑都依赖此时读取到的权限,这意味着用户连接成功后再对这个用户进行权限修改,此时不会生效,只有新建新的连接才会使用新的权限配置
链接成功后,如果没有其他操作,连接就是处于空闲状态,如果超过一定时间,就会自动断开链接,该参数由 wait_timeout
控制,默认是 8小时
在数据库里面,长连接是指连接成功后,如果客户端持续有请求,则一直使用同一个连接;短连接是指每次执行完很少的几次查询就断开连接,下次查询再重新建立一个。
建立连接的过程通常是比较复杂的,因此尽量使用长连接,但是全部使用长连接后,你可能会发现,有些时候 MySQL 占用内存涨得特别快,这是因为 MySQL 在执行过程中临时使用的内存是管理在连接对象里面的。这些资源会在连接断开的时候才释放。所以如果长连接累积下来,可能导致内存占用太大,被系统强行杀掉(OOM),从现象看就是 MySQL 异常重启了。我们有两种方案解决:
- 定期断开长连接。使用一段时间,或者程序里面判断执行过一个占用内存的大查询后,断开连接,之后要查询再重连
- 如果用的是 MySQL 5.7 或更新版本,可以在每次执行一个比较大的操作后,通过执行 mysql_reset_connection 来重新初始化连接资源。这个过程不需要重连和重新做权限验证,但是会将连接恢复到刚刚创建完时的状态
MySQL 拿到一个查询请求后,会先到查询缓存看看,之前是不是执行过这条语句。之前执行过的语句及其结果可能会以 key-value 对的形式,被直接缓存在内存中。key 是查询的语句,value 是查询的结果。如果你的查询能够直接在这个缓存中找到 key,那么这个 value 就会被直接返回给客户端
大多数情况下建议不要使用查询缓存:因为查询缓存的失效非常频繁,只要有对一个表的更新,这个表上所有的查询缓存都会被清空
可以将参数 query_cache_type
设置成 DEMAND
,这样对于默认的 SQL 语句都不使用查询缓存。而对于你确定要使用查询缓存的语句,可以用 SQL_CACHE
显式指定:
select SQL_CACHE * from T where ID=10;
MySQL 8.0 版本直接将查询缓存的整块功能删掉了,也就是说 8.0 开始彻底没有这个功能了
(3) 分析器通过分析器进行 词法分析
,词法分析作用就是分析 SQL 语句里面的每个字符串都代表什么
做完上面的操作后,接下来进行语法分析,就是判断我们输入的这个 SQL 语句是否满足 MySQL 的语法
(4) 优化器优化器的作用就是在表有多个索引的时候,决定使用哪个索引、或者有多表关联 (join) 的时候,决定表的连接顺序,优化器会选择认为效率更高的那个方案
(5) 执行器开始交给执行器执行的时候,要先判断一下你对这个表有没有执行查询的权限,如果没有,就会返回没有权限的错误,如下所示 (在工程实现上,如果命中查询缓存,会在查询缓存返回结果的时候,做权限验证。查询也会在优化器之前调用 precheck 验证权限)
mysql> select * from T where ID=10;
ERROR 1142 (42000): SELECT command denied to user 'b'@'localhost' for table 'T'
如果有权限,就打开表继续执行。打开表的时候,执行器就会根据表的引擎定义,去使用这个引擎提供的接口
比如我们这个例子中的表 T 中,ID 字段没有索引,那么执行器的执行流程是这样的:
- 调用 InnoDB 引擎接口取这个表的第一行,判断 ID 值是不是 10,如果不是则跳过,如果是则将这行存在结果集中
- 调用引擎接口取“下一行”,重复相同的判断逻辑,直到取到这个表的最后一行
- 执行器将上述遍历过程中所有满足条件的行组成的记录集作为结果集返回给客户端
对于有索引的表,执行的逻辑也差不多:第一次调用的是“取满足条件的第一行”这个接口,之后循环取“满足条件的下一行”这个接口,这些接口都是引擎中已经定义好的
你会在数据库的慢查询日志中看到一个 rows_examined
的字段,表示这个语句执行过程中扫描了多少行。这个值就是在执行器每次调用引擎获取数据行的时候累加的。在有些场景下,执行器调用一次,在引擎内部则扫描了多行,因此引擎扫描行数跟 rows_examined 并不是完全相同的
存储引擎层负责数据的存储和提取,架构模式是插件式的,即不同存储引擎公用 Server层。常见的存储引擎有 InnoDB(默认)
、Memory
、MyISAM
等。我们可以再创建表的时候通过指定 engine
参数选择存储引擎,现在最常用的存储引擎是 InnoDB,它从 MySQL 5.5.5 版本开始成为了默认存储引擎
- 一条 SQL 语句是如何更新的
- 查询语句的那一套流程,更新语句也是同样会走一遍。与查询流程不一样的是,更新流程还涉及两个重要的日志模块:redo log(重做日志)和 binlog(归档日志)
物理日志 - 保存的是在某个数据页上做了什么更改
如果每一次的更新操作都要写入道磁盘里,那么整个过程的 O/I 成本就会特别高了,为了解决这个问题,MySQL 使用到了 WAL(Write-Ahead Logging)
技术,即先写到日志 (redo log) 里面,再写磁盘,这个时候就代表更新完成了,等到系统空闲的时候再将数据写入到磁盘中
InnoDB 的 redo log 是固定大小的,比如可以配置为一组 4 个文件,每个文件的大小是 1GB,那么这块“粉板”总共就可以记录 4GB 的操作。从头开始写,写到末尾就又回到开头循环写,如下面这个图所示:
write pos
是当前记录的位置,一边写一边后移,写到第 3 号文件末尾后就回到 0 号文件开头。checkpoint 是当前要擦除的位置,也是往后推移并且循环的,擦除记录前要把记录更新到数据文件
write pos 和 checkpoint 之间的是“粉板”上还空着的部分,可以用来记录新的操作。如果 write pos 追上 checkpoint,表示日志文件满了,这时候不能再执行新的更新,得停下来先擦掉一些记录,把 checkpoint 推进一下。有了 redo log,InnoDB 就可以保证即使数据库发生异常重启,之前提交的记录都不会丢失,这个能力称为 crash-safe
逻辑日志 - 记录的是这个语句的原始逻辑
redo log
是 InnoDB 引擎特有的日志;binlog
(归档日志)是Server 层自己的日志。
最开始 MySQL 里并没有 InnoDB 引擎。MySQL 自带的引擎是 MyISAM,但是 MyISAM 没有 crash-safe 的能力,binlog 日志只能用于归档。而 InnoDB 是另一个公司以插件形式引入 MySQL 的,既然只依靠 binlog 是没有 crash-safe 能力的,所以 InnoDB 使用另外一套日志系统——也就是 redo log 来实现 crash-safe 能力
这两种日志有以下三点不同:
- redo log 是 InnoDB 引擎特有的;binlog 是 MySQL 的 Server 层实现的,所有引擎都可以使用
- redo log 是物理日志,记录的是 “在某个数据页上做了什么修改” ;binlog 是逻辑日志,记录的是这个语句的原始逻辑,比如 “给 ID=2 这一行的 c 字段加 1”
- redo log 是循环写的,空间固定会用完;binlog 是可以追加写入的。“追加写”是指 binlog 文件写到一定大小后会切换到下一个,并不会覆盖以前的日志
我们来看看执行器和 InnoDB 引擎在执行这个简单的 update 语句时的内部流程:
- 执行器先找引擎取 ID=2 这一行。ID 是主键,引擎直接用树搜索找到这一行。如果 ID=2 这一行所在的数据页本来就在内存中,就直接返回给执行器;否则,需要先从磁盘读入内存,然后再返回
- 执行器拿到引擎给的行数据,把这个值加上 1,比如原来是 N,现在就是 N+1,得到新的一行数据,再调用引擎接口写入这行新数据
- 引擎将这行新数据更新到内存中(内存中这条数据所在的数据页中的数据),同时将这个更新操作记录到 redo log 里面,此时 redo log 处于
prepare
状态。然后告知执行器执行完成了,随时可以提交事务 - 执行器生成这个操作的 binlog,并把 binlog 写入磁盘
- 执行器调用引擎的提交事务接口,引擎把刚刚写入的 redo log 改成提交(commit)状态,更新完成
update 语句的执行流程图,图中浅色框表示是在 InnoDB 内部执行的,深色框表示是在执行器中执行的:
最后三步看上去有点“绕”,将 redo log 的写入拆成了两个步骤:prepare 和 commit,这就是"两阶段提交"
3. 两阶段提交为什么必须有“两阶段提交”呢?这是为了让两份日志之间的逻辑一致。要说明这个问题,我们得从文章开头的那个问题说起:怎样让数据库恢复到半个月内任意一秒的状态?
前面我们说过了,binlog 会记录所有的逻辑操作,并且是采用“追加写”的形式。如果你的 DBA 承诺说半个月内可以恢复,那么备份系统中一定会保存最近半个月的所有 binlog,同时系统会定期做整库备份。这里的“定期”取决于系统的重要性,可以是一天一备,也可以是一周一备
当需要恢复到指定的某一秒时,比如某天下午两点发现中午十二点有一次误删表,需要找回数据,那你可以这么做:
-
首先,找到最近的一次全量备份,如果你运气好,可能就是昨天晚上的一个备份,从这个备份恢复到临时库
-
然后,从备份的时间点开始,将备份的 binlog 依次取出来,重放到中午误删表之前的那个时刻
这样你的临时库就跟误删之前的线上库一样了,然后你可以把表数据从临时库取出来,按需要恢复到线上库去
好了,说完了数据恢复过程,我们回来说说,为什么日志需要“两阶段提交”。这里不妨用反证法来进行解释
由于 redo log 和 binlog 是两个独立的逻辑,如果不用两阶段提交,要么就是先写完 redo log 再写 binlog,或者采用反过来的顺序。我们看看这两种方式会有什么问题:
- 先写 redo log 后写 binlog:假设在 redo log 写完,binlog 还没有写完的时候,MySQL 进程异常重启,但是由于redo log 的 crash_safe 特性,即使宕机重启后也能够恢复数据,此时看起来是正常的,但是要注意 binlog 中没有存储这条记录,因此以后我们在数据恢复的时候,就会漏掉了这条数据,导致数据与原库仍不一致
- 先写 binlog 后写 redo log:如果先写 binlog 之后,redo log 还没写数据库就宕机然后异常重启,此时这个还没写进 redo log,那么重启后这个事务就是失效的,但是我们在 binlog 中已经存储了这个记录,以后在数据恢复的时候就会导致多了这条记录,与原来数据库的值不同
可以看到,如果不使用“两阶段提交”,那么数据库的状态就有可能和用它的日志恢复出来的库的状态不一致
4. 总结你可能会说,这个概率是不是很低,平时也没有什么动不动就需要恢复临时库的场景呀?其实不是的,不只是误操作后需要用这个过程来恢复数据。当你需要扩容的时候,也就是需要再多搭建一些备库来增加系统的读能力的时候,现在常见的做法也是用全量备份加上应用 binlog 来实现的,这个“不一致”就会导致你的线上出现主从数据库不一致的情况。简单说,redo log 和 binlog 都可以用于表示事务的提交状态,而两阶段提交就是让这两个状态保持逻辑上的一致
- redo log 用于保证 crash-safe 能力。innodb_flush_log_at_trx_commit 这个参数设置成 1 表示每次事务的 redo log 都直接持久化到磁盘;设置成 0 表示每秒将 log buffer 同步到 os buffer 并且从 os buffer 刷到磁盘的日志文件中;设置成 2 表示每次事物都将 log buffer 同步到 os buffer 但每秒才从 os buffer 刷到磁盘的日志文件中。这个参数建议你设置成 1,这样可以保证 MySQL 异常重启之后数据不丢失
- sync_binlog 这个参数设置成 1 的时候,表示每次事务的 binlog 都持久化到磁盘。这个参数我也建议你设置成 1,这样可以保证 MySQL 异常重启之后 binlog 不丢失
- 在做主从读写分离的时候,从服务器将 innodb_flush_log_at_trx_commit 和 sync_binlog 这两个参数设置成0能有效地提高 SQL 的执行效率
- 两阶段提交是跨系统维持数据逻辑一致性时常用的一个方案