一提到数据库的同步,估计大家第一时间想到的就是基于binlog
的主从复制了,但是放在我们的场景中,还有几个问题:
- 第一,并不是需要复制所有表的数据,复制对象只有少量的几张表
- 第二,也是比较麻烦的,两个业务系统数据库表结构可能不一致。例如,要同步数据库1的A表中的某些字段到数据库2的B表中,在这一过程中,A表和B表的字段并不是完全相同
这样的话,我们只能通过代码的方式,首先获取到数据库1表中数据的变动,再通过手动映射的方式,插入到数据库2的表中。但是,获取变动数据的这一过程,还是离不开binlog
,因此我们就需要在代码中对binlog
进行一下监控。
先说结论,我们最终使用了一个开源工具mysql-binlog-connector-java
,用来监控binlog
变化并获取数据,获取数据后再手动插入到另一个库的表中,基于它来实现了数据表的同步。项目的git地址如下:
https://github.com/shyiko/mysql-binlog-connector-java
在正式开始前,还是先简单介绍一下mysql
的binlog
,binlog
是一个二进制文件,它保存在磁盘中,是用来记录数据库表结构变更、表数据修改的二进制日志。其实除了数据复制外,它还可以实现数据恢复、增量备份等功能。
启动项目前,首先需要确保mysql
服务已经启用了binlog
:
show variables like 'log_bin';
如果为值为OFF
,表示没有启用,那么需要首先启用binlog
,修改配置文件:
log_bin=mysql-bin
binlog-format=ROW
server-id=1
对参数做一个简要说明:
- 在配置文件中加入了
log_bin
配置项后,表示启用了binlog
binlog-format
是binlog
的日志格式,支持三种类型,分别是STATEMENT
、ROW
、MIXED
,我们在这里使用ROW
模式server-id
用于标识一个sql语句是从哪一个server
写入的,这里一定要进行设置,否则我们在后面的代码中会无法正常监听到事件
在更改完配置文件后,重启mysql
服务。再次查看是否启用binlog
,返回为ON
,表示已经开启成功。
在Java项目中,首先引入maven
坐标:
<dependency>
<groupId>com.github.shyiko</groupId>
<artifactId>mysql-binlog-connector-java</artifactId>
<version>0.21.0</version>
</dependency>
写一段简单的示例,看看它的具体使用方式:
public static void main(String[] args) {
BinaryLogClient client = new BinaryLogClient("127.0.0.1", 3306, "hydra", "123456");
client.setServerId(2);
client.registerEventListener(event -> {
EventData data = event.getData();
if (data instanceof TableMapEventData) {
System.out.println("Table:");
TableMapEventData tableMapEventData = (TableMapEventData) data;
System.out.println(tableMapEventData.getTableId()+": ["+tableMapEventData.getDatabase() + "-" + tableMapEventData.getTable()+"]");
}
if (data instanceof UpdateRowsEventData) {
System.out.println("Update:");
System.out.println(data.toString());
} else if (data instanceof WriteRowsEventData) {
System.out.println("Insert:");
System.out.println(data.toString());
} else if (data instanceof DeleteRowsEventData) {
System.out.println("Delete:");
System.out.println(data.toString());
}
});
try {
client.connect();
} catch (IOException e) {
e.printStackTrace();
}
}
首先,创建一个BinaryLogClient
客户端对象,初始化时需要传入mysql
的连接信息,创建完成后,给客户端注册一个监听器,来实现它对binlog
的监听和解析。在监听器中,我们暂时只对4种类型的事件数据进行了处理,除了WriteRowsEventData
、DeleteRowsEventData
、UpdateRowsEventData
对应增删改操作类型的事件数据外,还有一个TableMapEventData
类型的数据,包含了表的对应关系,在后面的例子中再具体说明。
在这里,客户端监听到的是数据库级别的所有事件,并且可以监听到表的DML
语句和DDL
语句,所以我们只需要处理我们关心的事件数据就行,否则会收到大量的冗余数据。
启动程序,控制台输出:
com.github.shyiko.mysql.binlog.BinaryLogClient openChannelToBinaryLogStream
信息: Connected to 127.0.0.1:3306 at mysql-bin.000002/1046 (sid:2, cid:10)
连接mysql的binlog
成功,接下来,我们在数据库中插入一条数据,这里操作的数据库名字是tenant
,表是dept
:
insert into dept VALUES(8,"人力","","1");
这时,控制台就会打印监听到事件的数据:
Table:
108: [tenant-dept]
Insert:
WriteRowsEventData{tableId=108, includedColumns={0, 1, 2, 3}, rows=[
[8, 人力, , 1]
]}
我们监听到的事件类型数据有两类,第一类是TableMapEventData
,通过它可以获取操作的数据库名称、表名称以及表的id
。之所以我们要监听这个事件,是因为之后监听的实际操作中返回数据中包含了表的id
,而没有表名等信息,所以如果我们想知道具体的操作是在哪一张表的话,就要先维护一个id
与表的对应关系。
第二个打印出来的监听事件数据是WriteRowsEventData
,其中记录了insert
语句作用的表,插入涉及到的列,以及实际插入的数据。另外,如果我们只需要对特定的一张或几张表进行处理的话,也可以提前设置表的名单,在这里根据表id
到表名的映射关系,实现数据的过滤,
接下来,我们再执行一条update
语句:
update dept set tenant_id=3 where id=8 or id=9
控制台输出:
Table:
108: [tenant-dept]
Update:
UpdateRowsEventData{tableId=108, includedColumnsBeforeUpdate={0, 1, 2, 3}, includedColumns={0, 1, 2, 3}, rows=[
{before=[8, 人力, , 1], after=[8, 人力, , 3]},
{before=[9, 人力, , 1], after=[9, 人力, , 3]}
]}
在执行update
语句时,可能会作用于多条数据,因此在实际修改的数据中,可能包含多行记录,这一点体现在上面的rows
中,包含了id
为8和9的两条数据。
最后,再执行一条delete
语句:
delete from dept where tenant_id=3
控制台打印如下,rows
中同样返回了生效的两条数据:
Table:
108: [tenant-dept]
Delete:
DeleteRowsEventData{tableId=108, includedColumns={0, 1, 2, 3}, rows=[
[8, 人力, , 3],
[9, 人力, , 3]
]}
简单的使用原理介绍完成后,再回到我们原先的需求上,需要将一张表中新增或修改的数据同步到另一张表中,问题还有一个,就是如何将返回的数据对应到所在的列上。这时应该怎么实现呢?以update
操作为例,我们要对提取的数据后进行一下处理,更改上面例子中的方法:
if (data instanceof UpdateRowsEventData) {
System.out.println("Update:");
UpdateRowsEventData updateRowsEventData = (UpdateRowsEventData) data;
for (Map.Entry<Serializable[], Serializable[]> row : updateRowsEventData.getRows()) {
List<Serializable> entries = Arrays.asList(row.getValue());
System.out.println(entries);
JSONObject dataObject = getDataObject(entries);
System.out.println(dataObject);
}
}
在将data
类型强制转换为UpdateRowsEventData
后,可以使用getRows
方法获取到更新的行数据,并且能够取到每一列的值。
之后,调用了一个自己实现的getDataObject
方法,用它来实现数据到列的绑定过程:
private static JSONObject getDataObject(List message) {
JSONObject resultObject = new JSONObject();
String format = "{\"id\":\"0\",\"dept_name\":\"1\",\"comment\":\"2\",\"tenant_id\":\"3\"}";
JSONObject json = JSON.parseObject(format);
for (String key : json.keySet()) {
resultObject.put(key, message.get(json.getInteger(key)));
}
return resultObject;
}
在format
字符串中,提前维护了一个数据库表的字段顺序的字符串,标识了每个字段位于顺序中的第几个位置。通过上面这个函数,能够实现数据到列的填装过程,我们再执行一条update
语句来查看一下结果:
update dept set tenant_id=3,comment="1" where id=8
控制台打印结果如下:
Table:
108: [tenant-dept]
Update:
[8, 人力, 1, 3]
{"tenant_id":3,"dept_name":"人力","comment":"1","id":8}
可以看到,将修改后的这一条记录中的属性填装到了它对应的列中,之后我们再根据具体的业务逻辑中,就可以根据字段名取出数据,将数据同步到其他的表了。
注意:本文归作者所有,未经作者允许,不得转载