写点什么

亿级大表在线不锁表变更字段与索引

发布于: 2021 年 01 月 18 日

摘要:在业界中有一个比较成熟的工具,针对大表的场景,可以在线进行 Alter 变更,且不会出现锁表的风险。除此之外,它还有其他的一些优点,让我们开始探索吧。

背景


大家在日常工作中,往往需要对数据库的表结构做变更,一般涉及到增删字段,修改字段属性等 ALTER 的操作。然而,在大表场景下,特别是千万级、亿级的大表,如果处理不当。这些操作往往会引发锁表的巨大隐患,特别是在生产环境中,一旦在变更表结构过程中,出现了长时间锁表,会导致用户产生的数据长时间无法正常变更到表中,进而导致服务功能异常,结果将是灾难性的。

一般执行这种 Alter 类型的变更,我们可能有以下的想法:

1、停服,在停服期间做表结构的变更,自然就可以防止对用户产生影响。但是,很多场景是不允许停服的。并且如果表的数据量达到上亿,那么需要停服时间可能需要十几个小时,甚至更长,这是极不现实的;

2、凌晨执行,在用户较少的时间段内,做变更,尽量减少对用户产生影响。但是如果出现锁表的话,万一有用户使用服务,服务将不可用;

3、使用换表,但是缺点是复制数据到新表期间,如果用户在这期间做了 update 或 delete 操作,且数据发生在已经复制完成的部分,那么将无法感知到这部分数据,导致丢失掉用户的操作数据,风险太大;

4、使用存储过程,缺点是执行时间会很久,且有可能影响到用户的 DDL 操作。因为为了防止每次循环修改时,锁住太多数据行,我们需要控制每次更新数据的行数,粒度不能太大,否则很有可能会锁住用户正在操作的数据行。

那么针对以上实际的需求,就没有一个很好的工具,来解决我们的痛点吗?其实在业界中,就有一个比较成熟的工具,针对大表的场景,可以在线进行 Alter 变更,且不会出现锁表的风险。除此之外,它还有其他的一些优点,让我们开始探索吧。

一、pt-osc 是什么


pt-online-schema-change 是 Percona-toolkit 一员,通过改进原生 ddl 的方式,达到不锁表在线修改表结构的效果。在 Percona 的官网中,关于 pt-osc 工具,也特别提到了 ALTER 表不会出现锁表的特性。

针对上面谈到的避免锁表、感知用户更新删除动作等,ps-osc 工具是怎么解决的呢?

pt-osc 主要执行步骤如下:


1、创建一个跟原表一模一样的新表,命名方式为'_正式表名_new';

2、使用 alter 语句将要变更的内容在新创建的新表上做变更,避免了对原表的 alter 操作;

3、在原表中创建 3 个触发器,分别是 insert、update 和 delete,主要是用于原表在往新表复制数据时,如果用户有 DDL 操作,触发器能够将在这期间出现的 DDL 操作数据也写入到新表中,确保新表的数据是最新的,不会丢失掉用户的新操作数据;

4、按块拷贝数据到新表,拷贝过程对数据行持有 S 锁;

5、重命名,将原表重命名为老表,命名为“_正式表名_old”,将新表重命名为正式表,可通过配置决定执行完成后是否删除掉老表;

6、删除 3 个触发器;

二、pt-osc 的安装


在 linux 系统中安装步骤:


--下载安装包wget  http://szxge1-sw.artifactory.cd-cloud-artifact.tools.huawei.com/artifactory/CommonComponent/common/tool/percona-toolkit-3.1.0.tar.gz
--解压安装包tar -zxvf percona-toolkit-3.1.0.tar.gz
--安装依赖环境yum install perl-ExtUtils-CBuilder perl-ExtUtils-MakeMakeryum -y install perl-Digest-MD5cd percona-toolkit-3.1.0perl Makefile.PL
--编译makemake installyum install mariadb
--安装Mysqlyum install perl-DBD-MySQL
复制代码

三、pt-osc 的使用


pt-osc 工具使用起来很简单,直接在 linux 命令行输入 pt-osc 格式的命令,即可直接执行。


以 Mysql 数据库增加一个名字是 MARK 的字段为例:


pt-online-schema-change --user="root"--password="*****" --host="数据库IP"--port=3306 --alter "ADD COLUMN MARK TINYINT NULLDEFAULT 1 COMMENT 'mark source region is 1';"D=my_test,t=t_test --no-drop-old-table --execute --print --no-check-replication-filters --charset=utf8 --no-check-unique-key-change --max-load="Threads_running=100" --critical-load="Threads_running=300" --recursion-method=none;
复制代码

在上面的语句中:

1、user 和 password 分别为数据库执行变更操作的用户名、密码,需要高权限;

2、host 为数据库的 IP 地址;

3、port 为数据库的端口号;

4、alter 后面跟上具体的 alter 语句;

5、D 为 database 名字;

6、t 为要执行变更的表名;

7、no-drop-old-table 就是不要删除

8、charset,字符集,使用 utf8;


9、max-load,在复制数据时,工具会监控数据库中正在运行的线程数,如果大于配置的 Threads_running 值,那么会暂停复制,直到小于该值。以此防止对数据库造成较大压力,影响现网业务正常使用;

  10、critical-load,默认为 50,在每个块之后检查 SHOW GLOBAL STATUS,与 max-load 不同的是,如果负载太高,,直接中止,而不是暂停。可根据自己数据库情况斟酌配置阈值;

注意:在--alter 后面跟着的变更语句中,列名不可以加`符号,否则会出现报错。如--alter "ADD COLUMN MARK TINYINT NULL DEFAULT 1 COMMENT 'mark source region is 1';",MARK 字段加了`符号,就会出现错误,COMMENT 后面有`符号无影响。

下面是使用 pt-osc 工具,实际执行一个作业时,打印出来的信息。为了安全起见,部分日志信息做了隐藏忽略。


[root@ttt ~]#  `pt-online-schema-change--user="root" --password="*****" --host="数据库IP" --port=3306 --alter "ADDCOLUMN MARK TINYINT NULL DEFAULT 1 COMMENT 'mark source region is 1';"D=my_test,t=t_test --no-drop-old-table --execute --print--no-check-replication-filters --charset=utf8 --no-check-unique-key-change--max-load="Threads_running=100"--critical-load="Threads_running=300" --recursion-method=none;` 
No slaves found. See --recursion-method if host EulerOS-BaseTemplate has slaves.
Not checking slave lag because no slaves were found and --check-slave-lag was not specified.
Operation, tries, wait:
analyze_table, 10, 1
copy_rows, 10, 0.25
create_triggers, 10, 1
drop_triggers, 10, 1
swap_tables, 10, 1
update_foreign_keys, 10, 1
Altering `my_test`.`t_test`...
Creating new table...
CREATE TABLE `my_test`.`_t_test_new` (
`ID` int(11) NOT NULL AUTO_INCREMENT COMMENT '递增ID',
.............建表语句数据................
Created new table my_test._t_test_new OK.
Altering new table...
ALTER TABLE `my_test`.`_t_test_new` ADD COLUMN MARK TINYINT NULL DEFAULT 1 COMMENT 'mark source region is 1';
Altered `my_test`.`_t_test_new` OK.
2020-10-14T11:14:48 Creating triggers...
2020-10-14T11:14:48 Created triggers OK.
2020-10-14T11:14:48 Copying approximately 346697 rows...
INSERT LOW_PRIORITY IGNORE INTO `my_test`.`_t_test_new` (`id`, ..建表语句信息....FROM `my_test`.`_t_test_new` FORCE INDEX(`PRIMARY`) WHERE ((`id` >= ?)) AND ((`id` <= ?)) LOCK IN SHARE MODE /*pt-online-schema-change31340 copy nibble*/
SELECT /*!40001 SQL_NO_CACHE */ `id` FROM `my_test`.`t_test` FORCE INDEX(`PRIMARY`) WHERE ((`id` >= ?)) ORDER BY `id` LIMIT ?, 2 /*next chunk boundary*/
2020-10-14T11:14:53 Copied rows OK.
2020-10-14T11:14:53 Analyzing new table...
2020-10-14T11:14:53 Swapping tables...
RENAME TABLE `my_test`.`t_test` TO `my_test`.`_t_test_old`, `my_test`.`_t_test_new` TO `my_test`.`t_test`
2020-10-14T11:14:53 Swapped original and new tables OK.
Not dropping old table because --no-drop-old-table was specified.
2020-10-14T11:14:53 Dropping triggers...
DROP TRIGGER IF EXISTS `my_test`.`pt_osc_my_test_t_test_del`
DROP TRIGGER IF EXISTS `my_test`.`pt_osc_my_test_t_test_upd`
DROP TRIGGER IF EXISTS `my_test`.`pt_osc_my_test_t_test_ins`
2020-10-14T11:14:54 Dropped triggers OK.
Successfully altered `my_test`.`t_test`.
复制代码

四、性能对比


前面介绍了很多 pt-osc 的优点,以及良好的特性。那么实际使用效果到底怎么样呢?在测试环境中,专门做了一个测试,让大家有更加直观的感受。

在测试库中,准备了一张 1600 万数据的大表,目标为对大表添加一个字段,分别使用存储过程和 pt-osc 工具,进行测试。

4.1 使用存储过程

首先使用存储过程做测试,为防止锁表,每次只更新 200 行。整个变更从开始到完成,需要耗费 90 分钟。其实,存储过程在执行过程中,如果恰好用户也在 DDL 操作存储过程正在变更的数据行,还有可能会锁住用户的数据,导致用户不能变更成功。

4.2 使用 pt-osc 工具

pt-osc 从开始执行到变更完成,耗时 7 分钟左右,速度非常快。在执行的过程中,测试环境的服务连接到该数据库,并执行多个会操作该表的任务,整个过程中,任务能够正常执行,未出现异常情况。

五、结语


ps-osc 的上述优点,在现网环境的不停服等要求下,能够优雅地帮助我们实施变更,且保证在变更期间,数据库不会受到锁表、过载等的影响,进而保证了业务能够正常运转。


本文分享自华为云社区《千万级、亿级大表在线不锁表变更字段与索引》,原文作者:active_zhao 。


点击关注,第一时间了解华为云新鲜技术~


发布于: 2021 年 01 月 18 日阅读数: 25
用户头像

提供全面深入的云计算技术干货 2020.07.14 加入

华为云开发者社区,提供全面深入的云计算前景分析、丰富的技术干货、程序样例,分享华为云前沿资讯动态,方便开发者快速成长与发展,欢迎提问、互动,多方位了解云计算! 传送门:https://bbs.huaweicloud.com/

评论

发布
暂无评论
亿级大表在线不锁表变更字段与索引