但是,默认的binlog_format设置为混合。由于这种不一致性,Debezium连接器失败了,因为它找到了混合格式的初始绑定日志。08:35:43 kafkaConnect1 connect-distributed[13342]: [2018-10-12 08:35:43,348] INFO Error processing binlogFuture binlog events read before connector is shutdown will be ignored.
ReaderThreadLifecycleListener.onCommunicationFailure(BinlogReader.java:1018)tat com.github.shyiko.mysql.binlog.BinaryLogClient.connect(BinaryLogClient.java:580)
tat com.github.shyiko
问题是RDS bilong_format被设置为MIXED,工具需要STATEMENT。而且我们没有超特权来改变它。This tool requires binlog_format=STATEMENT, but the current binlog_format is set to MIXED andIf running MySQL 5.1.29 or newer, setting binlog_format requires the SUPER privilege
我需要在两个不同rds实例上相同的mysql数据库之间移动数百万行。instance to amazon-s3我的问题是,我需要在最后删除第一个实例上的数据由于我们讨论的是大量数据,因此我考虑创建一个存储过程来批量删除行。在aws中有没有实现这一点的方法?
另一件事是,我只需要从特定表中移动一些行,而不是整个表或整个数据库。