本文中详细描述了,如何使用AWS DMS(AWS Database Migration Service)把MySQL的数据同步到AWS Redshift。其他数据库之间的同步,仅供参考。

AWS DMS是一项云服务,可轻松迁移关系数据库、数据仓库、NoSQL 数据库及其他类型的数据存储。它的优势是:

  • 支持多种数据库之间的同步。
  • 支持异构数据库的同步。比如:MySQL到Redshift, Oracle到AWS Aurora等。
  • 增量实时的同步。由于采用读取数据库的log来进行同步数据,所以理论上,可以做到实时的同步。而且,这种方式的同步对Source数据库的压力比较小。
  • 支持Insert, Update, Delete的操作的数据同步。虽然在Source数据库中,绝大多数的操作是Insert,但一般会有少量的Delete和Update。
  • 简单可靠。由于是AWS官方的服务,是比较可靠的。虽然是黑箱,但可以通过日志来获取详细信息。和其他类似工具来比较,AWS DMS不是最易用的,但如果Target数据库是AWS自己的数据库(Aurora,DynamoDB,Redshift等),AWS DMS无疑更加的可靠。
  • 如果target db是Amazon Aurora, Amazon Redshift, Amazon DynamoDB,每个实例半年免费。DMS Replication Instance价格比同配置EC2 Server贵一点,但半年免费后,反而更加便宜。详见Free DMS

1. 背景分析

在我们的项目中,需要把MySQL数据库同步到redshift中。MySQL是业务数据库,数据会持续更新,所以数据同步不是一次性的工作。而redshift是数据仓库,未来需要同步多个Source数据库到redshift。

第一期,只需要同步10张表。除了几张小表,大部分表的数据将在百万级别以上,其中最大的两张表情况如下:

table_name table_size(MB) table_rows description
A 4,743.67 29,452,042 包含一个text类型字段,里面有长文本。
B 3,496.37 19,794,750

全部的table size是10G左右,table rows是6000w左右。 总体而言,数据量并不大。但对于第一次同步,由于需要同步全量数据,还是有些压力的。

MySQL Instance的类型的是db.r3.large,Replication Instance的类型是dms.c4.large(也尝试了dms.c4.xlarge)。

实际的全量同步测试中,经常发现,表A,B的性能不是很好,尤其是表A,其数据同步速度只有每小时1,000,000-2,000,000行。这意味着要完成A表的同步,估计需要20到30小时时间。而且发现replciation instance的Write IOPS非常高,持续达到3000。

由于业务数据库在白天的访问量还是很大的,20到30小时的同步时间是无法接受的。业务数据库的空闲时段是03:00-06:00(没有任何的数据变化),只有三个小时,所以全量同步的时间最好不要超过3个小时。

经过监控并分析,我们还发现:

  1. MySQL数据库重启后,再进行数据同步,性能提高50-150倍。最快可以达到每小时150,000,000行。实际中A表最快可以在13分钟之内完成。重试了几次,发现都是这个情况,真是有点儿匪夷所思,没法解释。监控发现replciation instance的Write IOPS降低到了80左右。为何重启RDS会提高性能,猜想可能原因有:

    • MySQL的一些系统设定。由于我们的My Sql采用了默认的参数配置,这些配置重启后,获得了最佳的性能。
    • replciation instance访问和处理MySQL数据的逻辑。这些逻辑制导致了重启后性能大大提高。

    下面是系统的一些监控情况: monitor1
    从上面结果可以发现,重新启动MySQL后,如果并发同步全部表的话,性能还是下降比较明显。

  2. replciation instance是否有足够的IOPS。当同步的数据量比较大的时候,IOPS有会持续达到3000。默认情况下,在credit用完后(第一次能用30-60分钟),IOPS会下降到磁盘容量的3倍。比方,如果replication instance的磁盘是100G,则基准的IOPS是300。IOPS从3000到300,性能会有5-10倍的降低。也就是说对于大数据量的全量同步,一个大的磁盘非常重要。建议是1000G,这样IOPS可以持续达到3000,而不会衰减。

  3. LOB(Large Binary Objects, 比如text, mediumtext, longblob等)对性能的影响还是比较大的。实际也发现,表A比表B慢很多。

  4. 在多张表同步的过程中,replication instance 的CPU占用率会比较高。对于多表的全量导入,需要选用配置高一些的cpu,建议是dms.c4.large以上。对于增量的同步,如果每天的增量在1G以内,dms.t2.medium够用的。

  5. 全量同步时,最好选择在MySQL的空闲时段。这是因为如果MySQL有频繁的数据变化,DMS读取MySQL数据的性能会下降,replication instance也需要更大的内存来缓存增量数据,而这些都会进一步降低同步的性能。

综合分析,以上几点对性能的影响是比较大的。在方案中我们将会重点考虑。

除了以上的重点,也可以关注以下几点。

  1. Source数据库的负载。实际测试全量同步时,Source MySQL没有任何的数据变化,只有DMS的数据读取,从监控看
    • 单独全量同步A表,MySQL ReadIPOS一般在45-55之间,持续时间是10分钟,负载正常。
    • 所有10张表开始同步,MySQL ReadIPOS升高到200,甚至更多。因此,在全量同步时,要对Source MySQL的访问进行控制,以便不会对Source产生过多的性能压力。
  2. Target数据库的负载。实际测试全量同步时,Target Redshift的负载完全正常。Write IPOS一般在60-80之间。
  3. Replication Instance的内存。实际测试全量同步时,4G内存是够用的。监控发现在replication instance上,FreeableMemory超过1G,SwapUsage接近0。
  4. Redshfit数据库,仅支持从S3拷贝数据,这个过程可能会对性能有影响。数据的整个流程是:
    • DMS拷贝Soure数据到replciation isntance的本地磁盘
    • replciation isntance对数据进行进行整理转换。
    • 把整理后的数据上传到S3。和其他数据库比较,这是增加的一个步骤。由于没有发现metric来量化这步时间,目前不确定是否会影响性能。
    • Copy S3数据到Redshfit

2. 解决方案

一般来说,数据同步主要分为两个步骤:

  • 全量同步(Full Load)
  • 增量同步(ongoing replication)

经过上面一节的分析,可以看到全量同步的速度是关键所在。基于此,我们的有几种方案:

  1. 业务数据库直接同步。在MySQL数据库空闲时段进行全量同步,全量同步完成后,再进行增量同步。这种方案的前提是全量同步能够在空闲期之内完成,只有这样,才能对业务数据库的影响降低到最低。
  2. read replica节点同步。当业务数据库有read replica节点的情况,选择从read replica节点同步到Redshift。这种情况下,即使全量同步的速度有些慢,一般认为也是可以接受的。
  3. backup节点同步。步骤如下:
    • 在业务数据库空闲时段进行数据备份。然后把这个备份恢复到一个新的MySQL节点(backup节点)。同时记录下备份完成的时间点。
    • 从backup节点全量同步到Redshift中。完成后删除backup节点和相关资源。
    • 创建新的DMS Task,这些Task连接到业务数据库,设置从上面记录的时间点开始增量同步。
  4. backup MySQL - backup redshift同步。基本上和方案三一样,只是redshift也需要额外做一次恢复。

solution

比较来看:

  • 方案一和方案二非常相似,简单直接。虽然方案二对全量同步的速度没有要求那么高,但还是越快越好,因为这样除了降低服务器的压力,更加有利于快速验证同步的结果,排查可能出现的的问题。

    因此,对于大表,还需要采用一些性能优化的方法。常用的方法是通过ID(主键或唯一键)或时间字段(Partition Key)来创建多个DMS Task。比如:

    • Task1: ID from 1 to 10,000,000
    • Task2: ID from 10,000,001 to 20,000,000
    • Task3: ID from 20,000,001 to 30,000,000
    • ...

    采用递增的主键的ID作为拆分的字段,可以获得很好的性能。而如果采用时间来作为拆分字段,一般该字段最好是Partition Key,否则的话,性能可能会受影响。

  • 方案三和方案四非常相似,由于隔离了业务数据库,可以方便惬意的来处理。

    • 对全量同步的时间没有绝对要求。
    • 对业务数据库的影响最小。
    • 更加容易验证数据同步的结果。backup节点是没有其他系统的访问,这样也没有任何数据变化的,这样便于比较Source和Target之间的数据是否完全一致。

    在图中,我们选用了snapshot的备份创建时间作为onging同步的开始时间点,这要求业务数据库有一个比较长的业务空闲期。

    另外一个方法,或许也是更好的方法是,记录一下全量同步后的每个表的[Max ID],然后创建一个full load+ongoing类型的同步Task。在Task中,每个表的row filtering里设定ID >= [Max ID]+1。

    上面的这个方法不要求有业务空闲期,所以适用面更广。唯一的要求是:保证ID是主键,并且是单向递增的字段。其实这个方法和上面提到的方案一和方案二的性能优化方法思路非常相似。

实际项目中,以上几个方案都可以作为备选,我们可以根据需要同步的数据量,同步的速度,业务数据库的要求等多因素来决定采用哪个方案。

3. 代码实现

下面的代码实现以方案三作为基准。如果用其他方案,基本也是差不多的。

3.1 准备

3.11 DMS Security

  1. 授予IAM用户DMS权限。授权后,登录AWS Console,该用户可以对DMS进行操作和监控。详见IAM Permissions Needed to Use AWS DMS
  2. 创建以下IAM Role。DMS将会使用这些Role来执行Task,创建CloudWatch Log等。详见Creating the IAM Roles to Use With the AWS CLI and AWS DMS API
    • dms-vpc-role
    • dms-cloudwatch-logs-role
    • dms-access-for-endpoint
  3. 登录Linux Server,使用IAM用户的Access Key和Security Key来配置。将在该Linux Server来执行下文的DMS脚本。
aws configure
AWS Access Key ID [None]: 2yc0Y0VebLbWHb16Ee
AWS Secret Access Key [None]: 2yc0Y0VebLbWHb16Ee2yc0Y0VebLbWHb16Ee
Default region name [None]: cn-north-1
Default output format [None]: json

3.12 MySQL

数据实例是AWS MySQL,按照以下设置。

用户权限
要实现增量的同步,数据库用户拥有读取数据库和binary log的权限。可以通过以下脚本授权。假设数据库用户名是tpch,密码是1234,授权脚本如下:

CREATE USER 'tpch'@'%' IDENTIFIED BY '1234';
GRANT SELECT ON *.* to 'tpch'@'%';  -- used to compare data
GRANT REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'tpch'@'%';
flush privileges;

数据库配置和参数

  • enable automatic backups
  • binlog_format = ROW
  • binlog_checksum = NONE
  • binlog_row_image = FULL

检查参数的脚本如下。

show variables like "%binlog_format%";
show variables like "%binlog_checksum%";
show variables like "%binlog_row_image%";

设置binary log的过期时间
在PRO上log的过期时间是168小时,也是就是7天。而在DEV或ITG,一般设置成1小时就可以了。

call MySQL.rds_set_configuration('binlog retention hours', 168);      
call MySQL.rds_show_configuration;  -- 查看结果

详见Using a Amazon-Managed MySQL-Compatible Database as a Source for AWS DMS

3.13 Redshift

redshift实例需要拥有dms-access-for-endpoint的权限。见下图。详见Using an Amazon Redshift Database as a Target for AWS Database Migration Service

dms-access-for-endpoint

3.2 全量同步(Full Load)

# 1 配置文件编辑。
cat << EOF > dms.conf 
export rep_instance_class=dms.c4.xlarge
export rep_instance_id=wechat-full
export source_endpoint_id=wechat-MySQL
export target_endpoint_id=wechat-redshift
export allocated_storage=1000
export vpc_security_group_ids=
export avail_zone=
export rep_sg_id=
# task的名称列表
export tasks=full_A,full_B,full_others 

export source_db_type=mysql
export source_db_server=
export source_db_port=3306
export source_db_user=
export source_db_password=
export source_db_extra=""

export target_db_type=redshift
export target_db_server=
export target_db_name=
export target_db_port=5439
export target_db_user=
export target_db_password=
export target_db_extra="acceptanydate=true;truncateColumns=true"

# only for onging replication
export BatchApplyTimeoutMin=600
export BatchApplyTimeoutMax=1800
# cdc_start_position
export cdc_start_position=2019-01-10T20:05:46
EOF

# 2. 创建replication instance.
# 创建instance时间较长,一般需要几分钟时间。
./create_rep.sh

# 3. 创建并测试连接source和target endpoints
./create_endpoint.sh

# 4. 创建task
# task的table-mappings和replication-task-settings分别是在init_table_mapping.sh和init_task_setting.sh中定义的。
./create_task.sh

# 5. start task
# 在AWS Console中依次启动task。每个步骤都需要等待上一个步骤完成后才执行。
# 5.1 full_A
# 5.2 full_B 
# 5.3 full_others

# 6. 验证source和target数据是否一致。
# 7. 在AWS Console依次删除所有task和replication instance

对于每个Task, 都需要相应的table mapping。需要编辑init_table_mapping.sh来创建具体table mapping。

init_table_mapping.sh内容示例

# !/bin/bash
script=$(readlink -f "$0")
script_path=$(dirname "$script")

mkdir -p $script_path/json

task_id=full-A
cat << EOF > $script_path/json/${task_id}_table.json
{
  "rules": [
    {
      "rule-type": "selection",
      "rule-id": "1",
      "rule-name": "1",
      "object-locator": {
        "schema-name": "schema_1",
        "table-name": "A"
      },
      "rule-action": "include"
    }
  ]
}
EOF

...

3.3 增量同步(ongoing replication)

增量同步需要在dms.conf中设定cdc_start_position。可以有以下几种设定方式。详见create-replication-task

  • cdc_start_position=2018-03-08T12:12:12
  • cdc_start_position=checkpoint:V1#27#mysql-bin-changelog.157832:1975:-1:2002:677883278264080:mysql-bin-changelog.157832:1876#0#0#*#0#93
  • cdc_start_position=mysql-bin-changelog.000024:373

# 1 配置文件编辑。
cat << EOF > dms.conf 
export rep_instance_class=dms.t2.medium
export rep_instance_id=wechat-cdc
export source_endpoint_id=wechat-MySQL
export target_endpoint_id=wechat-redshift
export allocated_storage=50
export vpc_security_group_ids=
export avail_zone=
export rep_sg_id=
# task的名称列表
export tasks=cds_all

export source_db_type=mysql
export source_db_server=
export source_db_port=3306
export source_db_user=
export source_db_password=
export source_db_extra=""

export target_db_type=redshift
export target_db_server=
export target_db_name=
export target_db_port=5439
export target_db_user=
export target_db_password=
export target_db_extra="acceptanydate=true;truncateColumns=true"

# only for onging replication
export BatchApplyTimeoutMin=600
export BatchApplyTimeoutMax=1800
# cdc_start_position
export cdc_start_position=2019-01-10T20:05:46
EOF

# 2. 创建replication instance.
# 创建instance时间较长,一般需要几分钟时间。
./create_rep.sh

# 3. 测试连接source和target endpoints
./test_endpoint.sh

# 4. 创建task
# task的table-mappings和replication-task-settings分别是在init_table_mapping.sh和init_task_setting.sh中定义的。
./create_task.sh

# 5. start task
# 在AWS Console中启动task:cdc_all

由于target是Redshift,BatchApplyTimeoutMin和BatchApplyTimeoutMax的值非常重要。这两个变量定义每隔多少秒来进行Copy数据。在实际项目中,可以根据数据同步的实时性要求和Redshift的负载情况来进行设定。测试表明,BatchApplyTimeoutMin从120秒改成600秒,redshif集群的负载大大减轻。详情如下:

BatchApplyTimeoutMin CPU utilization Write IOPS
120 4.70% 46.05
600 2.80% 13.38

参考

  1. AWS DMS
  2. AWS DMS Best Practices
  3. How to Script a Database Migration
  4. DMS Available Commands
  5. Monitoring AWS DMS Tasks
  6. Using a Amazon-Managed MySQL-Compatible Database as a Source for AWS DMS
  7. Using an Amazon Redshift Database as a Target for AWS Database Migration Service
  8. IAM Permissions Needed to Use AWS DMS
  9. Creating the IAM Roles to Use With the AWS CLI and AWS DMS API
  10. create-replication-task
  11. Free DMS