温馨提示:文本由机器自动转译,部分词句存在误差,以视频为准
00:01
数据库迁移作为一个古老的话题并不神秘,但因为迁移数据的重要性以及业务对数据库可用性的高要求,导致数据库迁移的复杂度极高。一次成功的数据迁移必须要能保障业务持续可用性及数据库迁移过程业务持续可服务迁移数据一致性,保障迁移数据的一致性。迁移切换异成回滚当业务切换到目标数据源运行异常,业务可随时无损回切回源实例,当前市面上极少有工具能完美的满足上述所有要求。而九张算术旗下的nine data基于数据迁移场景提供了一整套完整的产品方案。nine data数据复制目前支持my seql seql play kaka等常见数据源之间的同一构数据迁移,近期还将支持Oracle post。Mogular DB redis等数十种常见数据源,其提供了数制的单向及双向复制,其中单项数据复制功能包括了结构复制、群量数据复制及增量复制能力。基于这几个复制步骤,可以在业务零停机的情况下完成数据库的无缝迁移。整个数据迁移任务的配置非常简单,首先创建一个数据复制的任务,配置需要迁移的原实力及目标实例。
01:17
输入任务名。选择需要迁移的数据所在的原数据源。选择迁移的目标数据源。您还可以根据业务需求选择复制类型以及数据冲突策略。选择需要迁移的数据对象,可以自定义选择对象或选择全部对象。可以根据业务需要配置表明或库明的映射关系,还支持配置过滤条件以实现部分数据的迁移。系统自动开始预检查。欲检查完成后即可启动任务,选中开启数据一致性对比,可以在复制任务完成后自动启动数据对比功能,此时nine data后台会自动调度任务进行数据的迁移,原数据源中写入的新数据也会通过增量复制功能迁移到目标数据源。
02:07
全量复制完成后,即开始增量复制。当员及目标数据的同步延迟为零时,会自动触发结构及数据一致性校验。当数据检查一致后,您可以选择一个业务低峰期停止源库业务,并将流量切换到目标实例。增量复制期间,您对源数据源所做的所有更改都会同步到目标数据源。我们可以尝试打开SQL窗口,对原数据源做一个数据更改并提交。打开目标数据源,可以看到更改的数据已经实时同步,在源和目标数据校验不一致的情况下,支持展示具体的不一致内容以及提供快速订正的SQL。我们尝试在目标端更改数据,由于目前配置的是原到目标的单项复制任务,因此本次更改不会同步到源端,此时再执行数据对比就会出现数据不一致的结果。
03:06
单击查看详情,可以查看具体的不一致内容,单击生成变更SQL,可以生成订正SQL,复制该SQL到目标端执行,以快速完成数据订正,保证两端的数据一致性。作为一个即开即用的s nine data围绕数据迁移功能也提供了一系列完善的配套服务,包括告警、监控。迁移、限流等功能,帮助您在不旺的情况下顺滑的完成数据迁移。Nine data让每个人用好数据和云。
我来说两句