MySQL(高级特性篇) 15 章——锁
事务的隔离性由锁来实现
一、概述
- 锁是计算机协调多个进程或线程并发访问某一资源的机制
- 当多个线程并发访问某个数据的时候,尤其是针对一些敏感的数据(比如订单、金额等),我们就需要保证这个数据在任何时刻最多只有一个线程在访问(锁的作用)
- 在数据库中,除了传统的计算资源(如CPU、RAM、I/O等)的争用外,数据也是一种供许多用户共享的资源
- 锁机制为实现MySQL的各个隔离级别提供了保证
- 锁冲突也是影响数据库并发访问性能的一个重要因素
二、MySQL并发事务访问相同的记录
(1)读—读 情况
读—读情况:即允许并发事务相继读取相同的记录。读取操作本身不会对记录造成任何影响,所以允许这种情况的发生
(2)写—写 情况
- 写—写情况:即并发事务相继对相同的记录作出改动
- 在这种情况下,会发生脏写的问题,任何一种隔离级别都不允许这种问题的发生。所以在多个未提交事务相继对一条记录做改动时,需要让它们排队执行,这个排队过程其实是通过锁来实现的
- 锁其实就是一个内存中的结构,在事务执行前本来是没有锁的,也就是说,一开始是没有锁结构和记录进行关联的
- 当一个事务想对这条记录做改动时,(1)首先会看看内存中有没有与这条记录关联的锁结构,(2)如果没有,就会在内存中生成一个锁结构与之关联
- 比如,事务T1要对这条记录做改动,就需要生成一个锁结构与之关联:
- 小结几种说法:
- 不加锁:意思就是不需要在内存中生成对应的锁结构,可以直接执行操作
- 获取锁成功,或者加锁成功:意思就是在内存中生成了对应的锁结构,而且锁结构的is_waiting属性为false,也就是事务可以继续执行操作
- 获取锁失败,或者加锁失败,或者没有获取到锁:意思就是在内存中生成了对应的锁结构,不过锁结构的is_waiting属性为true,也就是事务需要等待,不可以继续执行操作
(3)读—写或写—读情况
- 读—写或写—读情况:即一个事务进行读取操作,另一个事务进行改动操作。这种情况下可能发生脏读、不可重复读、幻读等问题
- 各数据库厂商对SQL标准的支持都不一样。比如MySQL在REPEATABLE READ隔离级别上,就已经解决了幻读问题
(4)并发问题的解决方案
2.4.1方案一:读操作利用多版本并发控制(MVCC),写操作进行加锁
- 普通的SELECT语句在READ COMMITTED和REPEATABLE READ隔离级别下,会使用到MVCC读取记录
- 在READ COMMITTED(解决了脏读问题)隔离级别下,一个事务在执行过程中每次执行SELECT语句都会生成一个ReadView,ReadView的存在本身就保证了事务不可以读取到未提交的事务所做的修改,也就是避免了脏读现象
- 在REPEATABLE READ(解决了不可重复读问题)隔离级别下,一个事务在执行过程中只有第一次执行SELECT操作时,才会生成一个ReadView,之后的SELECT操作都复用这个ReadView,这样也就避免了不可重复读和幻读的问题
2.4.2方案二:读、写操作都采用加锁方式
- 四个问题都可以解决(脏写、脏读、不可重复读、幻读)
- 比如,在银行存款的事务中,你需要先把账户的余额读出来,然后加上本次存款的数额,最后再写到数据库中。在将账户余额读取出来后,就不想让别的事务再访问该余额,直到本次存款事务执行完成,其它事务才可以访问账户的余额。这样在读取记录的时候,就需要对其进行加锁操作,这样也就意味着读—写操作也像写—写操作那样排队执行
- 脏读的产生是因为一个事务读取了另一个未提交的事务写的一条记录,如果另一个事务在写记录的时候就给这条记录加锁,那么当前事务就无法继续读取该记录了,所以也就不会有脏读问题的产生了
- 不可重复读的产生是因为当前事务先读取一条记录,另一个事务对记录做了改动并提交之后,当前事务再次读取时会获得不同的值,如果在当前事务读取该记录时就给该记录加锁,那么另一个事务就无法修改该记录,自然也就不会发生不可重复读了
- 幻读问题的产生是因为当前事务读取了一个范围的记录,然后另外的事务向该范围内插入了新记录,当前事务再次读取该范围的记录时,发现了新插入的数据。采取加锁的方式解决幻读问题就有一些麻烦,因为当前事务在第一次读取记录时,幻影记录并不存在,所以在读取的时候加锁就有点尴尬(因为你不知道给谁加锁)
幻读用间隙锁解决
小结对比发现:
- 采用MVCC方式,读—写操作彼此并不冲突,性能更高
- 采用加锁方式,读—写操作彼此需要排队执行,影响性能
一般情况下,我们当然愿意采用MVCC来解决读—写操作并发执行的问题,但是业务在某些特殊情况下,要求必须采用加锁的方式执行
三、锁的不同角度分类
(1)从数据操作的类型划分:读锁、写锁
- 对于数据库,并发事务的读—读情况并不会引起什么问题。对于写—写、读—写或写—读这些情况可能会引起一些问题,需要使用MVCC或者加锁的方式来解决它们
- 在使用加锁的方式解决问题时,由于既要允许读—读情况不受影响,又要使写—写、读—写或写—读情况中的操作相互阻塞,所以MySQL实现了一个由两种类型的锁组成的锁系统来解决
- 这两种类型的锁通常称为共享锁(Shared Lock,S Lock)和排他锁(Exclusive Lock,X Lock),也叫读锁(read lock)和写锁(write lock)
- 读锁:也称为共享锁,英文用S表示
- 写锁:也称为排他锁,英文用X表示
- 需要注意的是,对于InnoDB引擎来说,读锁和写锁可以加在表上,也可以加在行上
- 总结:
3.1.1锁定读
- 在采用加锁方式解决脏读、不可重复读、幻读等问题时,读取一条记录就需要获取该记录的S锁,其实是不严谨的,有时候需要在读取记录的时候获取记录的X锁,来禁止别的事务读写该记录,为此MySQL提出了两种比较特殊的SELECT语句格式
- 对读取的记录加S锁:
SELECT ... LOCK IN SHARE MODE; # 或 SELECT ... FOR SHARE; #(8.0新增语法)
(1)在普通的SELECT语句后边加LOCK IN SHARE MODE,如果当前事务执行了该语 句, 那么就会为读取到的记录加S锁 (2)这样允许别的事务继续获取这些记录的S锁(比方说别的事务也使用SELECT ... LOCK IN SHARE MODE语句来读取这些记录) (3)但是不能获取这些记录的X锁(比如使用SELECT ... FOR UPDATE语句来读取这些记 录,或者直接修改这些记录) (4)如果别的事务想要获取这些记录的X锁,那么它们会阻塞,直到当前事务提交之后将这 些记录上的S锁释放掉
- 对读取的记录加X锁:
SELECT ... FOR UPDATE;
(1)在普通的SELECT语句后边加FOR UPDATE,如果当前事务执行了该语句,那么它会 为读取到的数据加X锁 (2)这样既不允许别的事物获取这些记录的S锁(比方说别的事务也使用SELECT ... LOCK IN SHARE MODE语句来读取这些记录) (3)也不允许获取这些记录的X锁(比如使用SELECT ... FOR UPDATE语句来读取这些记 录,或者直接修改这些记录) (4)如果别的事务想要获取这些记录的S锁或X锁,那么它们会阻塞,直到当前事务提交之 后将这些记录上的X锁释放掉
- MySQL8.0新特性:(1)在5.7及之前的版本,如果获取不到锁,就会一直等待,直到innodb_lock_wait_timeout超时。(2)在8.0版本中,SELECT ... FOR UPDATE、SELECT ... FOR SHARE添加NOWAIT、SKIP LOCKED语法,跳过锁等待,或者跳过锁定
- 如果查询的行已经加锁,那么NOWAIT会立即报错返回
- 如果查询的行已经加锁,而SKIP LOCKED也会立即返回,只是返回的结果中不包含被锁定的行
3.1.2写操作
- 平常用的无非就是UPDATE、INSERT、DELETE
- DELETE:其实就是(1)先在B+树中定位到这条记录所在的位置(2)然后获取到这条记录的X锁(3)再执行delete mark操作(4)被标记为删除的记录会被加到垃圾链表中,后续会由purge线程进行统一的物理删除操作
- UPDATE:在对一条记录做UPDATE操作时,分为三种情况
- 情况一:未修改该记录的键值,并且被更新的列占用的存储空间在修改前后未发生变化(1)先在B+树中定位到这条记录的位置(2)然后再获取一下记录的X锁(3)最后在原记录的位置进行修改操作
- 情况二:未修改该记录的键值,并且至少有一个被更新的列占用的存储空间在修改前后发生变化(1)先在B+树中定位到这条记录的位置(2)然后获取一下记录的X锁(3)将原记录标记为删除,并加入垃圾链表,物理删除由purge线程负责(4)更新索引(5)插入新记录(6)释放X锁
- 情况三:修改了该记录的键值,(1)先在B+树中定位到这条记录的位置(2)然后获取一下记录的X锁(3)将原记录标记为删除,并加入垃圾链表,物理删除由purge线程负责(4)释放原记录的X锁(5)插入新记录并获取新锁(6)更新索引(7)释放新记录相关锁
- INSERT:一般情况下,新插入一条记录的操作并不加锁,而是通过一种称之为隐式锁的结构来保护这条新插入的记录在本事务提交前不被别的事务访问(防止幻读)
(2)从数据操作的粒度划分:表级锁、页级锁、行锁
- 为了尽可能提高数据库的并发度,每次锁定的数据范围越小越好
- 但是管理锁是很耗费资源的事情(涉及获取、检查、释放锁等动作)。因此数据库系统需要在高并发响应和系统性能两方面进行平衡
- 对一条记录加锁影响的也只是这条记录而已,我们就说这个锁的粒度比较细;对一个表加锁影响整个表中的记录,我们就说这个锁的粒度比较粗。锁的粒度主要分为表级锁、页级锁和行锁
3.2.1表锁(Table Lock)
该锁会锁定整张表,它是MySQL中最基本的锁策略,并不依赖于存储引擎,并且表锁是开销最小的策略。由于表级锁一次会将整个表锁定,所以可以很好的避免死锁的问题。当然,锁的粒度大所带来最大的负面影响就是出现锁资源争用的概率也会最高,导致并发率大打折扣
(1)表级别的S锁、X锁
- 在对某个表执行SELECT、INSERT、DELETE、UPDATE语句时,InnoDB存储引擎是不会为这个表添加表级别的S锁或X锁的
- 在对某个表执行一些诸如ALTER TABLE、DROP TABLE这类的DDL语句时,其他事务对这个表并发执行诸如SELECT、INSERT、DELETE、UPDATE的语句会发生阻塞。同理,某个事务中对某个表执行SELECT、INSERT、DELETE、UPDATE语句时,在其他会话中对这个表执行DDL语句也会发生阻塞。这个过程其实是通过在Server层使用一种称之为元数据锁(英文名:Metadata Locks,简称MDL)结构来实现的
- 一般情况下,不会使用InnoDB存储引擎提供的表级别的S锁和X锁。比如,在系统变量autocommit=0,innodb_table_locks=1时,手动获取InnoDB存储引擎提供的表t的S锁或X锁可以这么写:
- LOCK TABLES t READ:InnoDB存储引擎会对表t加表级别的S锁
- LOCK TABLES t WRITE::InnoDB存储引擎会对表t加表级别的X锁
- 不过尽量避免在InnoDB存储引擎的表上使用LOCK TABLES这样的手动锁表语句,它们并不会提供什么额外的保护,只是会降低并发能力而已。InnoDB的厉害之处还是实现了更细粒度的行锁,关于InnoDB表级别的S锁和X锁,了解一下就可以了
- 关于MyISAM引擎下的表锁:
- 步骤一:创建表并添加数据
CREATE TABLE mylock( id INT NOT NULL PRIMARY KEY AUTO_INCREMENT, NAME VARCHAR(20) )ENGINE myisam; #插入一条数据 INSERT INTO mylock(NAME) VALUES('a'); #查询表中所有的数据 SELECT * FROM mylock;
- 步骤二:查看加上锁的表
SHOW OPEN TABLES; -- 或者 SHOW OPEN TABLES WHERE In_use = 1;
- 步骤三:手动增加表锁命令
LOCK TABLES t READ;#存储引擎会对表t加表级别的共享锁 LOCK TABLE t WRITE;#存储引擎会对表t加表级别的排他锁
比如
LOCK TABLES mylock WRITE; SHOW OPEN TABLES WHERE In_use = 1;
- 步骤四:释放表锁
UNLOCK TABLES; #可以看到已经没有In_use的数据了 SHOW OPEN TABLES WHERE In_use = 1;
- 步骤五:加读锁我们可以这么理解:读操作就相当于是加读锁,写操作就相当于是加写锁。如果在session里,给MyISAM存储引擎的表手动加锁,那么该session就只能对加锁的这张表进行操作(读锁就只能进行读操作,写锁可以进行读和写操作);在其它session里,可以对任何表进行操作,但是,如果想对该表进行读操作,就相当于想对它加读锁,如果想对该表进行写操作,就相当于想对它加写锁
- 步骤六:加写锁
- 步骤一:创建表并添加数据
- 总结:
- MyISAM在执行查询语句(SELECT)前,会给涉及的所有表加读锁,在执行增删改操作前,会给涉及的表加写锁
- InnoDB存储引擎是不会为这个表添加表级别的读锁或写锁的
- MySQL的表级锁有两种模式:(以MyISAM表进行操作的演示)(1)表共享读锁(Table Read Lock)(2)表独占写锁(Table Write Lock)
(2)意向锁
- InnoDB 支持多粒度锁(multiple granularity locking),它支持行级锁与表级锁共存,而意向锁就是其中的一种表锁
- 意向锁的存在是为了协调行锁和表锁的关系,支持多粒度(表锁与行锁)的锁并存
- 意向锁是一种不与行级锁冲突的表级锁
- 表明“某个事务正在某些行持有了锁或该事务准备去持有锁”
- 意向锁分为两种:
- 意向共享锁(intention shared lock, IS):事务有意向对表中的某些行加共享锁(S锁)
-- 事务要获取某些行的 S 锁,必须先获得表的 IS 锁。 SELECT column FROM table ... LOCK IN SHARE MODE;
- 意向排他锁(intention exclusive lock, IX):事务有意向对表中的某些行加排他锁(X锁)
-- 事务要获取某些行的 X 锁,必须先获得表的 IX 锁。 SELECT column FROM table ... FOR UPDATE;
即:意向锁是由存储引擎自己维护的,用户无法手动操作意向锁,在为数据行加共享/ 排他锁之前,InooDB 会先获取该数据行所在数据表的对应意向锁
- 意向共享锁(intention shared lock, IS):事务有意向对表中的某些行加共享锁(S锁)
- 意向锁要解决的问题:现在有两个事务,分别是T1和T2,其中T2试图在该表级别上应用共享或排它锁,如果没有意向锁存在,那么T2就需要去检查各个页或行是否存在锁;如果存在意向锁,T2在锁定该表前不必检查各个页或行锁,而只需检查表上的意向锁。简单来说就是给更大一级级别的空间示意里面是否已经上过锁
- 在数据表的场景中,如果我们给某一行数据加上了排它锁,数据库会自动给更大一级的空间,比如数据页或数据表加上意向锁,告诉其他人这个数据页或数据表已经有人上过排它锁了,这样当其他人想要获取数据表排它锁的时候,只需要了解是否有人已经获取了这个数据表的意向排它锁即可(1)如果事务想要获取数据表中某些记录的共享锁,就需要在数据表上添加意向共享锁(2)如果事务想要获取数据表中某些记录的排它锁,就需要在数据表上添加意向排它锁
- 举例:创建表teacher,插入6条数据,事务的隔离级别默认为Repeatable-Read,如下所示:
CREATE TABLE teacher( id INT NOT NULL, name VARCHAR(255) NOT NULL, PRIMARY KEY(id) )ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=UTF8mb4_0900_ai_ci; INSERT INTO teacher VALUES (1,'zhangsan'), (2,'lisi'), (3,'wangwu'), (4,'zhaoliu'), (5,'songhongkang'), (6,'leifengyang');
- 假设事务A获取了某一行的排它锁,并未提交,语句如下所示:
- 事务B想要获取teacher表的表读锁,语句如下:(获取锁只有两种结果:要么成功,要么失败。如果获取失败,就会阻塞)
- 因为共享锁与排他锁互斥,所以事务B在试图对teacher表加共享锁的时候,必须保证两个条件:
- 当前没有其他事务持有teacher表的排他锁
- 当前没有其他事务持有teacher表中任意一行的排他锁
- (1)事务B必须在确保teacher表不存在任何表级排它锁的前提下,(2)去检测表中的每一行是否存在排他锁。很明显(2)是一个效率很差的做法,但是有了意向锁之后,情况就不一样了
- 意向锁之间的兼容互斥性:
- 意向锁之间是互相兼容的,虽然意向锁和自家兄弟互相兼容,但是它会与普通的排它/共享锁互斥:注意这里的排它/共享锁指的都是表锁
- 回到刚才teacher表的例子。事务A获取了某一行的排它锁,并未提交。此时 teacher表存在两把锁:teacher表上的意向排它锁与id为6的数据行上的排它锁。事务B想要获取 teacher表的共享锁。此时事务B检测事务A持有teacher表的意向排它锁,就可以得知事务A必然持有该表中某些数据行的排它锁,那么事务B对teacher表的加锁请求就会被排斥(阻塞),而无需去检测表中的每一行数据是否存在排它锁
- 意向锁的并发性:意向锁不会与行级的共享/排他锁互斥!正因为如此,意向锁并不会影响到多个事务对不同数据行加排它锁时的并发性。(一条数据从被锁定到被释放的过程中,可能存在多种不同锁,但是这里我们只着重表现意向锁)
- 事务A获取了teacher表上的意向排它锁,事务A获取了id为6的数据行上的排它锁。之后事务B想要获取teacher表的共享锁
- 事务B检测到事务A持有teacher表的意向排它锁。事务B对teacher表的加锁请求被阻塞(排斥)。最后事务C也想获取teacher表中某一行的排它锁
- 事务C申请teacher表的意向排它锁。事务C检测到事务A持有teacher表的意向排它锁。因为意向锁之间并不互斥,所以事务C获取到了teacher表的意向排它锁。因为id为5的数据行上不存在任何排它锁,最终事务C成功获取到了该数据行上的排它锁
- 从上面的案例可以得到如下结论:
- 一旦我们给记录加行锁,就会自动生成相应的意向锁。意向锁是表级的,此时如果还想给该记录所在的表加表锁,就要根据共享锁和排它锁的规则进行判断是否能加锁成功。此时如果想给该表加行锁,是可以的,只要保证记录上锁的规则(共享锁和排它锁)即可。(也就是说,再加表锁,就在表的层面上判断,再加行锁,就在行的层面上判断)
- InnoDB支持多粒度锁,行级锁可以与表级锁共存
(3)自增锁(AUTO-INC锁)
- 在使用MySQL过程中,我们可以为表的某个列添加AUTO_INCREMENT属性,举例:
CREATE TABLE teacher( id INT NOT NULL AUTO_INCREMENT, name VARCHAR(255) NOT NULL, PRIMARY KEY(id) )ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=UTF8mb4_0900_ai_ci;
由于这个表的id字段声明了AUTO_INCREMENT,意味着在书写插入语句时不需要为其赋值,SQL语句修改如下所示
INSERT INTO `teacher` (name) VALUES ('zhangsan'), ('lisi');
上边的插入语句并没有为id列显式赋值,所以系统会自动为它赋上递增的值,结果如下所示 现在我们看到的上面插入数据只是一种简单的插入模式,所有插入数据的方式总共分为三 类,分别是“Simple inserts”,“Bulk inserts”,“Mix-mode inserts”
- “Simple inserts” (简单插入):可以预先确定要插入的行数的语句。包括没有嵌套子查询的单行和多行INSERT...VALUES()和REPLACE语句。比如我们上面举的例子就属于该类插入,已经确定要插入的行数
-
“Bulk inserts”(批量插入):事先不知道要插入的行数(和所需自动递增值的数量)的语句。比如INSERT ... SELECT,REPLACE ... SELECT和LOAD DATA语句,但不包括纯INSERT。 InnoDB在每处理一行,为AUTO_INCREMENT列分配一个新值
- “Mixed-mode inserts” (混合模式插入):这些是“Simple inserts”语句,但是指定部分新行的自动递增值。例如:INSERT INTO teacher (id,name) VALUES (1,'a'), (NULL,'b'), (5,'c'), (NULL,'d');只是指定了部分id的值。另一种类型的“混合模式插入”是INSERT ... ON DUPLICATE KEY UPDATE
- 对于上面数据插入的案例,MySQL采用了自增锁的方式来实现:AUTO-INC锁是一种特殊的表级锁,(1)如果表中有AUTO_INCREMENT列,在执行插入语句时就在表级别加一个AUTO-INC锁,然后为每条待插入记录的AUTO_INCREMENT修饰的列分配递增的值,在该语句执行结束后,再把AUTO-INC锁释放掉。(2)一个事务在持有AUTO-INC锁的过程中,其他事务的插入语句都要被阻塞。也正因为此,其并发性显然并不高。所以innodb通过innodb_autoinc_lock_mode的不同取值来提供不同的锁定机制,来显著提高SQL语句的可伸缩性和性能
- innodb_autoinc_lock_mode有三种取值,分别对应与不同锁定模式:
- innodb_autoinc_lock_mode = 0(“传统”锁定模式):(1)每当执行insert的时候,都会得到一个表级锁(AUTO-INC锁),使得语句中生成的auto_increment为顺序,(2)且在binlog中重放的时候,可以保证master与slave中数据的auto_increment是相同的。(3)因为是表级锁,当在同一时间多个事务中执行insert的时候,对于AUTO-INC锁的争夺会限制并发能力
- innodb_autoinc_lock_mode = 1(“连续”锁定模式):在 MySQL 8.0 之前,连续锁定模式是默认的。(1)在这个模式下,“bulk inserts”仍然使用AUTO-INC表级锁,并保持到语句结束。(2)对于“Simple inserts”(要插入的行数事先已知),则通过在mutex(轻量锁)的控制下获得所需数量的自动递增值来避免表级AUTO-INC锁, 它只在分配过程的持续时间内保持,而不是直到语句完成。如果另一个事务保持AUTO-INC锁,则“Simple inserts”等待AUTO-INC锁,如同它是一个“bulk inserts”
- innodb_autoinc_lock_mode = 2(“交错”锁定模式):从 MySQL 8.0 开始,交错锁模式是默认设置的。在这种锁定模式下,所有类型的INSERT语句都不会使用表级AUTO-INC锁。(1)该模式可以保证自动递增值是唯一且单调递增的(2)多个语句可以同时生成自增值,但是不同语句生成的自增值可能会相互穿插,举例如下:
(4)元数据锁(MDL锁)
- MySQL5.5引入了meta data lock,简称MDL锁,属于表锁范畴。比如,如果一个查询正在遍历一个表中的数据,而执行期间另一个线程对这个表结构做变更,增加了一列,那么查询线程拿到的结果跟表结构对不上,肯定是不行的
- 因此,(1)当对一个表做增删改查的时候,要加MDL读锁;(2)当要对表做结构变更的时候,要加MDL写锁
- 读锁之间不互斥,因此你可以有多个线程同时对一张表增删改查。读写锁之间、写锁之间是互斥的,用来保证变更表结构操作的安全性,解决了DML和DDL操作之间的一致性问题。不需要显式使用,在访问一个表的时候会被自动加上
- 举例:元数据锁的使用场景模拟
- 会话A:从表中查询数据
- 会话B:修改表结构,增加新列
- 会话C:查看当前MySQL的进程(show processlist)
- 通过会话C可以看出会话B被阻塞,这是由于会话A拿到了teacher表的元数据读锁,会话B想申请teacher表的元数据写锁,由于读写锁互斥,会话B需要等待会话A释放元数据锁才能执行
- 元数据锁可能带来的问题:我们可以看到session A会对表teacher加一个MDL读锁,之后session B要加MDL写锁会被阻塞,因为session A的MDL读锁还没有释放,而session c要在表teacher上新申请MDL读锁的请求也会被session B阻塞。前面我们说了,所有对表的增删改查操作都需要先申请MDL读锁,所有对表的DDL操作都需要先申请MDL写锁,否则都被阻塞
3.2.2InnoDB中的行锁
- 行锁(Row Lock)也称为记录锁,顾名思义,就是锁住某一行(某条记录row)。需要注意的是,MySQL服务器层并没有实现行锁机制,行级锁只在存储引擎层实现
- 优点:锁定粒度小,(1)发生锁冲突概率低,(2)可以实现的并发度高
- 缺点:(1)对于锁的开销比较大,(2)加锁会比较慢,(3)容易出现死锁的情况
- InnoDB与MyISAM的最大不同有两点:一是支持事务;二是采用了行级锁
- 首先我们创建表如下:
create table student( id int, name varchar(20), class varchar(10), primary key (id) )engine=innodb charset=utf8;
- 向这个表里插入几条记录:
INSERT INTO student VALUES (1,'张三','一班'), (3,'李四','一班'), (8,'王五','二班'), (15,'赵六','二班'), (20,'钱七','三班');
- student表中的聚簇索引的简图如下所示:这里把B+树的索引结构做了一个超级简化,只把索引中的记录给拿了出来,下面看看都有哪些常用的行锁类型
(1)记录锁(Record Locks)
- 记录锁也就是仅仅把一条记录锁上,官方的类型名称为:LOCK_REC_NOT_GAP。比如我们把id值为8的那条记录加一个记录锁的示意图如图所示。仅仅是锁住了id值为8的记录,对周围的数据没有影响
- 举例如下:可以看到,当两个session同时修改同一条记录的时候,后执行的那个就会被阻塞把session1commit之后,session2的阻塞就解除了,更新正常进行
- 记录锁是有S锁和X锁之分的,称之为S型记录锁和X型记录锁
- 当一个事务获取了一条记录的S型记录锁后,其他事务也可以继续获取该记录的S型记录锁,但不可以继续获取X型记录锁(S锁就是读锁,即共享锁)
- 当一个事务获取了一条记录的X型记录锁后,其他事务既不可以继续获取该记录的S型记录锁,也不可以继续获取X型记录锁(X锁就是写锁,即排它锁)
- MyISAM自动加表锁,InnoDB自动加行锁
(2)间隙锁(Gap Locks)
- MySQL在REPEATABLE READ隔离级别下是可以解决幻读问题的,解决方案有两种,可以使用MVCC方案解决,也可以采用加锁方案解决。但是在使用加锁方案解决时有个大问题,就是事务在第一次执行读取操作时,那些幻影记录尚不存在,我们无法给这些幻影记录加上记录锁。InnoDB提出了一种称之为Gap Locks的锁,官方的类型名称为:LOCK_GAP,我们可以简称为gap锁。比如,把id值为8的那条记录加一个gap锁的示意图如下
- 图中id值为8的记录加了gap锁,意味着不允许别的事务在id值为8的记录前边的间隙插入新记录,其实就是id列的值(3,8)这个区间的新记录是不允许立即插入的。比如,有另外一个事务再想插入一条id值为4的新记录,它定位到该条新记录的下一条记录的id值为8,而这条记录上又有一个gap锁,所以就会阻塞插入操作,直到拥有这个gap锁的事务提交了之后,id列的值在区间(3,8)中的新记录才可以被插入
- gap锁的提出仅仅是为了防止插入幻影记录而提出的。虽然有共享gap锁和独占gap锁这样的说法,但是它们起到的作用是相同的。而且如果对一条记录加了gap锁(不论是共享gap锁还是独占gap锁),并不会限制其他事务对这条记录加记录锁或者继续加gap锁
- 举例:这里session2并不会被堵住。因为表里并没有id=5这个记录,因此session 1加的是间隙锁(3,8)。而session 2也是在这个间隙加的间隙锁。它们有共同的目标,即:保护这个间隙,不允许插入值。但,它们之间是不冲突的(间隙锁可以重复加)
- 注意,给一条记录加了gap锁只是不允许其他事务往这条记录前边的间隙插入新记录。给哪条记录加gap锁才能阻止其他事务插入id值在(20,+∞)这个区间的新记录呢?这时候我们在讲数据页时介绍的两条伪记录派上用场了:
- Infimum记录:表示该页面中最小的记录
- Supremum记录:表示该页面中最大的记录
- 为了阻止其他事务插入id值在(20, +∞)这个区间的新记录,我们可以给索引中的最后一条记录所在页面的Supremum记录加上一个gap锁,如图所示:
select * from student where id > 20 lock in share mode;
这样就可以阻止其他事务插入id值在(20,+oo)这个区间的新记录
- 间隙锁的引入,可能会导致同样的语句锁住更大的范围,这其实是影响了并发度的。下面的例子会产生死锁: (1)session 1执行select ... for update语句,由于id=5这一行并不存在,因此会加上间隙 锁(3,8); (2)session2执行select ... for update语句,同样会加上间隙锁(3,8),间隙锁之间不会冲 突,因此这个语句可以执行成功; (3)session 2试图插入一行(5,"宋红康, '二班'),被session 1的间隙锁挡住了,只好进入等 待;
(3)临键锁(Next-Key Locks)
- 有时候我们既想锁住某条记录,又想阻止其他事务在该记录前边的间隙插入新纪录,所以InnoDB就提出了一种称之为Next-Key Locks的锁,官方的类型名称为LOCK_ORDINARY,我们也可以简称为next-key锁。Next-Key Locks是在存储引擎innodb、事务级别在可重复读的情况下使用的数据库锁,innodb默认的锁就是Next-Key locks。 比如,我们把id值为8的那条记录加一个next-key锁的示意图如下:
- next-key锁的本质就是一个记录锁和一个gap锁的合体,它既能保护该条记录,又能阻止别的事务将新记录插入被保护记录前边的间隙
begin; select * from student where id <=8 and id > 3 for update;
(4) 插入意向锁(Insert Intention Locks)
- 一个事务在插入一条记录时需要判断一下插入位置是不是被别的事务加了gap锁(next-key锁也包含gap锁),如果有的话,插入操作需要等待,直到拥有gap锁的那个事务提交。但是InnoDB规定事务在等待的时候也需要在内存中生成一个锁结构。InnoDB就把这种类型的锁命名为Insert Intention Locks,官方的类型名称为:LOCK_INSERT_INTENTION,我们称为插入意向锁。插入意向锁是一种gap锁,不是意向锁,在insert操作时产生
- 插入意向锁是在插入一条记录行前,由INSERT 操作产生的一种间隙锁。该锁用以表示插入意向,插入意向锁的特性可以分成两部分:
- 插入意向锁是一种特殊的间隙锁 ——间隙锁可以锁定开区间内的部分记录
- 插入意向锁之间互不排斥,所以即使多个事务在同一区间插入多条记录,只要记录本身(主键、唯一索引)不冲突,那么事务之间就不会出现冲突等待
- 比如,把id值为8的的那条记录加一个插入意向锁的示意图如下:
- 比如,现在T1为id值为8的记录加了一个gap锁,然后T2和T3分别想向student表中插入id值分别为4、5的两条记录,所以现在为id值为8的记录加的锁的示意图就如下所示:
- 从图中可以看到,由于T1持有gap锁,所以T2和T3需要生成一个插入意向锁的锁结构并且处于等待状态。当T1提交后会把它获取到的锁都释放掉,这样T2和T3就能获取到对应的插入意向锁了(本质上就是把插入意向锁对应锁结构的is_waiting属性改为false),T2和T3之间也并不会相互阻塞,它们可以同时获取到id值为8的插入意向锁,然后执行插入操作。事实上插入意向锁并不会阻止别的事务继续获取该记录上任何类型的锁
3.2.3 页锁
- 页锁就是在页的粒度上,进行锁定。页锁的开销介于表锁和行锁之间,会出现死锁。锁定粒度介于表锁和行锁之间,并发度一般
- 锁空间的大小是有限的,因为锁会占用内存空间,所以每个层级的锁数量是有限制的。当某个层级的锁数量超过了这个层级的阈值时,就会进行锁升级。锁升级就是用更大粒度的锁替代多个更小粒度的锁,这样做的好处是占用的锁空间降低了,但同时数据的并发度也下降了
(3)从对待锁的态度划分:乐观锁、悲观锁
乐观锁和悲观锁并不是锁,而是锁的设计思想
3.3.1悲观锁(Pessimistic Locking)
- 悲观锁总是假设最坏的情况,每次去拿数据的时候都认为别人会修改,(1)所以每次在拿数据的时候都会上锁,(2)这样别人想拿这个数据就会阻塞,(3)直到它拿到锁(共享资源每次只给一个线程使用,其它线程阻塞)比如行锁,表锁等,读锁,写锁等
- 秒杀案例:
- 商品秒杀过程中,库存数量的减少,避免出现超卖的情况。比如,商品表中有一个字段为quantity表示当前该商品的库存量。假设商品为华为mate40,id为1001,quantity=100个。如果不使用锁的情况下,操作方法如下所示:
- 这样写的话,在并发量小的公司没有大的问题,但是如果在高并发环境下,可能出现以下问题:
- 其中线程B此时已经下单并且减完库存,这个时候线程A依然去执行step3,就造成了超卖
- 我们使用悲观锁可以解决这个问题,商品信息从查询出来到修改,中间有一个生成订单的过程,使用悲观锁的原理就是,当我们在查询items信息后就把当前的数据锁定,直到我们修改完毕后再解锁。那么整个过程中,因为数据被锁定了,就不会出现有第三者来对其进行修改了。而这样做的前提是需要将要执行的SQL语句放在同一个事务中,否则达不到锁定数据行的目的
- 修改如下:
- select ... for update是MySQL中悲观锁。此时在items表中,id为1001的那条数据就被我们锁定了,其他的要执行select quantity from items where id = 1001 for update;语句的事务必须等本次事务提交之后才能执行。这样我们可以保证当前的数据不会被其它事务修改
- 注意:select ... for update语句执行过程中所有扫描的行都会被锁上,因此在MySQL中使用悲观锁必须确定使用了索引,而不是全表扫描,否则会把整个表锁住
- 悲观锁不适用的场景较多,它存在一些不足:因为悲观锁大多数情况下依靠数据库的锁机制来实现,以保证程序的并发访问性,同时这样对数据库性能开销影响也很大,特别是长事务而言,这样的开销往往无法承受 ,这时就需要乐观锁
3.3.2乐观锁(Optimistic Locking)
- 乐观锁认为对同一数据的并发操作属于小概率事件,它不采用数据库本身的锁机制,而是通过程序来实现。在程序上,我们可以采用版本号机制或者CAS机制实现。在Java中java.util.concurrent.atomic包下的原子变量类就是使用了乐观锁的一种实现方式:CAS实现的
- 乐观锁的版本号机制:在表中设计一个版本字段 version,第一次读的时候,会获取version 字段的取值。然后对数据进行更新或删除操作时,会执行UPDATE ... SET version=version+1 WHERE version=version。此时如果已经有事务对这条数据进行了更改,修改就不会成功。当我们修改了代码进行提交时,首先会检查当前版本号与服务器上的版本号是否一致,如果一致就可以直接提交,如果不一致就需要更新服务器上的最新代码,然后再进行提交
- 乐观锁的时间戳机制:时间戳和版本号机制一样,也是在更新提交的时候,将当前数据的时间戳和更新之前取得的时间戳进行比较,如果两者一致则更新成功,否则就是版本冲突
- 乐观锁就是程序员自己控制数据并发操作的权限,基本是通过给数据行增加一个戳(版本号或者时间戳),从而证明当前拿到的数据是否最新
- 秒杀案例:
- 依然使用上面秒杀的案例,执行流程如下
- 如果我们对同一条数据进行频繁的修改的话,那么就会出现这么一种场景,每次修改都只有一个事务能更新成功,在业务感知上面就有大量的失败操作。我们把代码修改如下:这样就会使每次修改都能成功,而且不会出现超卖的现象
3.3.3两种锁的适用场景
- 乐观锁和悲观锁的适用场景:
- 乐观锁适合读操作多的场景。它的优点在于程序实现,不存在死锁问题,不过适用场景也会相对乐观,因为它阻止不了除了程序以外的数据库操作
- 悲观锁适合写操作多的场景。它可以在数据库层面阻止其他事务对该数据的操作权限,防止读—写、写—读和写—写的冲突
- 乐观锁和悲观锁总结如下图所示:
(4)按加锁的方式划分:显式锁、隐式锁
3.4.1隐式锁
- 一个事务在执行INSERT操作时,如果即将插入的间隙已经被其他事务加了gap锁 ,那么本次INSERT操作会(1)阻塞,并且当前事务会在该间隙上(2)加一个插入意向锁,否则一般情况下INSERT操作是不加锁的。那如果一个事务首先插入了一条记录(此时并没有在内存生产与该记录关联的锁结构),然后另一个事务:
- 立即使用SELECT ... LOCK IN SHARE MODE语句读取这条记录,也就是要获取这条记录的S锁,或者使用SELECT ... FOR UPDATE语句读取这条记录,也就是要获取这条记录的X锁,怎么办?如果允许这种情况的发生,那么可能产生脏读的问题
- 立即修改这条记录,也就是要获取这条记录的X锁,怎么办?如果允许这种情况的发生,那么可能产生脏写问题
- 我们把聚簇索引和二级索引中的记录分开看一下:
- 情景一:对于聚簇索引记录来说,有一个trx_id隐藏列,该隐藏列记录着最后改动该记录的事务id。(1)那么如果在当前事务中新插入一条聚簇索引记录后,该记录的trx_id隐藏列代表的的就是当前事务的事务id,(2)如果其他事务此时想对该记录添加S锁或X锁时,首先会看一下该记录的trx_id隐藏列代表的事务是否是当前的活跃事务,(3)如果是的话,那么就帮助当前事务创建一个X锁(也就是为当前事务创建一个锁结构,is_waiting属性是false),然后自己进入等待状态(也就是为自己也创建一个锁结构,is_waiting属性是true)
- 情景二:对于二级索引记录来说,本身并没有trx_id隐藏列,但是在二级索引页面的Page Header部分有一个PAGE_MAX_TRX_ID属性,该属性代表对该页面做改动的最大的事务id,如果PAGE_MAX_TRX_ID属性值小于当前最小的活跃事务id,那么说明对该页面做修改的事务都已经提交了,否则就需要在页面中定位到对应的二级索引记录,然后回表找到它对应的聚簇索引记录,然后再重复情景一的做法
- 总结:也就是说,一个事务插入一条记录,但是该事务还没有提交。如果另一个事务此时试图操作插入的这条记录(读可能会引发脏读、写可能会引发脏写),为了避免引发问题,就要给第一个事务的insert操作加锁。我们通过情景二的规则判断第一个事务是否提交,如果没有提交,就要加锁。如果第一个事务已经提交,那就不会引发脏读和脏写的问题了
- 即:(1)新插入的记录,但是由于事务id的存在,相当于加了一个隐式锁。(2)别的事务在对这条记录加S锁或X锁时,由于隐式锁的存在,会先帮助当前事务生成一个锁结构(隐式锁→显式锁),然后自己再生成一个锁结构后进入等待状态。隐式锁是一种延迟加锁的机制,从而来减少加锁的数量
- 隐式锁在实际内存中并不含有这个锁信息。只有当产生锁等待时,隐式锁转化为显式锁
- 隐式锁的逻辑过程如下:
- InnoDB的每条记录中都有一个隐含的trx_id字段,这个字段存在于聚簇索引的B+Tree中
- 在操作一条记录前,首先根据记录中的trx_id检查该事务是否是活动的事务。如果是活动的事务,首先将隐式锁转换为显式锁(就是为该事务添加一个锁)
- 检查是否有锁冲突,如果有冲突,创建锁,并设置为waiting状态。如果没有冲突不加锁,跳到5
- 等待加锁成功,被唤醒,或者超时
- 写数据,并将自己的trx_id写入trx_id字段
3.4.2显式锁
- 通过特定的语句进行加锁,我们一般称之为显示加锁。例如:
- 显示加共享锁:
select .... lock in share mode
- 显示加排它锁:
select .... for update
- 显示加共享锁:
(5)其它锁之:全局锁
- 全局锁就是对整个数据库实例加锁。当你需要让整个库处于只读状态的时候,可以使用这个命令。之后其他线程的以下语句会被阻塞:数据更新语句(数据的增删改)、数据定义语句(包括建表、修改表结构等)和更新类事务的提交语句。全局锁的典型使用场景是:做全库逻辑备份
- 全局锁的命令:
Flush tables with read lock
(6)其它锁之:死锁
3.6.1概念
- 死锁是指两个或多个事务(1)互相占用对方的资源,(2)并请求锁定对方占用的资源,从而导致恶性循环
- 举例一:
- 举例二:
3.6.2产生死锁的必要条件
-
两个或者两个以上事务
-
每个事务都已经持有锁并且申请新的锁
-
锁资源同时只能被同一个事务持有或者不兼容
-
事务之间因为持有锁和申请锁导致彼此循环等待
死锁的关键在于:两个(或以上)的Session加锁的顺序不一致
3.6.3如何处理死锁
- 方式一:等待,直到超时(innodb_lock_wait_timeout=50s)
- 即当两个事务互相等待时,当一个事务等待时间超过设置的阈值时,就将其回滚,另外事务继续进行。这种方法简单有效,在innodb中,参数innodb_lock_wait_timeout用来设置超时时间
- 缺点:对于在线服务来说,这个等待时间往往是无法接受的
- 那将此值修改短一些,比如1s,0.1s是否合适?不合适,容易误伤到普通的锁等待
- 方式二:使用死锁检测进行死锁处理
- 方式一检测死锁太过被动,innodb还提供了wait-for graph算法来主动进行死锁检测,每当加锁请求无法立即满足需要并进入等待时,wait-for graph算法都会被触发
- 这是一种较为主动的死锁检测机制 ,要求数据库保存锁的信息链表和事务等待链表两部分信息基于这两个信息,可以绘制wait-for graph(等待图)死锁检测的原理是构建一个以事务为顶点、锁为边的有向图,判断有向图是否存在环,存在即有死锁
- 一旦检测到回路、有死锁,这时候InnoDB存储引擎会选择回滚undo量最小的事务,让其他事务继续执行(innodb_deadlock_detect=on 表示开启这个逻辑)
- 缺点:每个新的被阻塞的线程,都要判断是不是由于自己的加入导致了死锁。这个操作时间复杂度是O(n)。如果100个并发线程同时更新同一行,意味着要检测100*100= 1万次,1万个线程就会有1千万次检测
- 如何解决主动的死锁检测机制带来的问题?
- 方式一:关闭死锁检测。如果你能确保这个业务一定不会出现死锁,可以临时把死锁检测关掉。而关掉死锁检测意味着可能会出现大量的超时,这是业务有损的
- 方式二:控制并发度。如果并发能够控制住,比如同一行同时最多只有10个线程在更新,那么死锁检测的成本很低,就不会出现这个问题
- 进一步的思路:可以考虑通过将一行改成逻辑上的多行来减少锁冲突。比如,连锁超市账户总额的记录,可以考虑放到多条记录上。账户总额等于这多个记录的值的总和
3.6.4如何避免死锁
- 合理设计索引,使业务SQL尽可能通过索引定位更少的行,减少锁竞争
- 调整业务逻辑SQL执行顺序,避免update/delete长时间持有锁的SQL在事务前面
- 避免大事务,尽量将大事务拆成多个小事务来处理,小事务缩短锁定资源的时间,发生锁冲突的几率也更小
- 在并发比较高的系统中,不要显式加锁。特别是是在事务里显式加锁,如select ... for update语句。如果是在事务里运行了start transaction或设置了autocommit等于0,那么就会锁定所查找到的记录
- 降低隔离级别。如果业务允许,将隔离级别调低也是较好的选择,比如将隔离级别从RR调整为RC,可以避免掉很多因为gap锁造成的死锁
四、锁的内存结构
- 我们前边说对一条记录加锁的本质就是在内存中创建一个锁结构与之关联。那么是不是一个事务对多条记录加锁,就要创建多个锁结构呢?比如:
# 事务T1 select * from user LOCK IN SHARE MODE;
- 符合下边这些条件的记录会放到一个锁结构中:
- 在同一个事务中进行加锁操作
- 被加锁的记录在同一个页面中
- 加锁的类型是一样的
- 等待状态是一样的
- InnoDB存储引擎中的锁结构如下:
- 结构解析:
- 锁所在的事务信息: (1)不论是表锁还是行锁,都是在事务执行过程中生成的,哪个事务生成了这个锁结 构,这里就记录这个事务的信息 (2)此锁所在的事务信息在内存结构中只是一个指针,通过指针可以找到内存中关于 该事务的更多信息,比方说事务id等
- 索引信息:对于行来说,需要记录一下加锁的记录是属于哪个索引的。这里也是一个指针
- 表锁/行锁信息:表锁结构和行锁结构在这个位置的内容是不同的:n_bits的值一般都比页面中记录条数多一些。主要是为了之后在页面中插入了新记录后也不至于重新分配锁结构
- type_mode:这是一个32位的数,被分成了lock_mode、lock_type和rec_lock_type三个部分,如图所示:
- 其它信息:为了更好的管理系统运行过程中生成的各种锁结构而设计了各种哈希表和链表
- 一堆比特位:如果是行锁的话,在该结构末尾还放置了一堆比特位,比特位的数量是由上边提到的n_bits属性表示的。InnoDB数据页中的每条记录在记录头信息中都包含一个 heap_no 属性,伪记录Infimum的heap_no值为0,Supremum的heap_no值为1,之后每插入一条记录,heap_no值就增1。锁结构最后的一堆比特位就对应着一个页面中的记录,一个比特位映射一个heap_no,即一个比特位映射到页内的一条记录
五、锁的监控
- 我们一般可以通过检查InnoDB_row_lock等状态变量来分析系统上的行锁的争夺情况(锁一般是事务提交或回滚才释放)
mysql> show status like 'innodb_row_lock%'; +-------------------------------+-------+ | Variable_name | Value | +-------------------------------+-------+ | Innodb_row_lock_current_waits | 0 | | Innodb_row_lock_time | 0 | | Innodb_row_lock_time_avg | 0 | | Innodb_row_lock_time_max | 0 | | Innodb_row_lock_waits | 0 | +-------------------------------+-------+ 5 rows in set (0.01 sec)
- 对各个状态量的说明如下:
- Innodb_row_lock_current_waits:当前正在等待锁定的数量
- Innodb_row_lock_time:从系统启动到现在锁定总时间长度;(等待总时长)
- Innodb_row_lock_time_avg:每次等待所花平均时间;(等待平均时长)
- Innodb_row_lock_time_max:从系统启动到现在等待最长的一次所花的时间;
- Innodb_row_lock_waits:系统启动后到现在总共等待的次数;(等待总次数)
- 其它监控方法:MySQL把事务和锁的信息记录在了information_schema库中,涉及到的三张表分别是INNODB_TRX、INNODB_LOCKS和INNODB_LOCK_WAITS
六、附录
间隙锁加锁规则(共11个案例)
间隙锁是在可重复读隔离级别下(解决幻读)才会生效的:next-key lock实际上是由间隙锁加行锁实现的。许多公司的配置为:读已提交隔离级别加binlog_format=row。业务不需要可重复读的保证,这样考虑到读提交下操作数据的锁范围更小(没有间隙锁),这个选择是合理的
next-key lock的加锁规则:
- 原则1:next-key lock是前开后闭区间
- 原则2:
- 优化1:
- 优化2:
- 一个bug:
next-key lock的加锁步骤:
- 步骤一:确定查询类型和索引使用情况
- 步骤二:查找满足条件的记录
- 步骤三:对访问到的记录和间隙加锁
- 步骤四:根据优化规则调整锁的类型
- 步骤五:保持锁直到事务结束
- 举例一:普通索引等值查询
- 举例二:唯一索引范围查询
- 举例三:普通索引范围查询
- 举例四:等值查询且最后一个值不满足条件