首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

几类历史数据沉淀的方案过渡

从数据架构的角度来说,尽可能希望把一些状态型数据的变化,通过流水数据的方式来做一个历史沉淀,我们暂且成为历史数据吧。...然后我们看一下这种历史数据的处理方案和想法。...还有一种方式,可能折衷一些,即程序可能下沉到数据处理层,数据库处理层不用刻意去关系数据的意义,数据层可以做数据的写入和流转,可以通过程序层来包装事务来生成历史数据或者是透明的通过OLTP数据生成历史数据...,但是关键的一点是,历史数据和OLTP的数据是放在一起的,当然这个表的数据会放大,所以我们需要做一种偏离线的数据归档,比如保留近7天的数据即可。...而历史数据可能保留有几个月甚至几年,这样一来历史的数据倒是可以实现分布式存储,可能实际的意义和成本需要做平衡。 当然如果你有其他好的建议,也欢迎提出。

1.3K60
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    代码迁移之旅(二)- 渐进式迁移方案

    说在前面 这是代码迁移的第二篇文章,也是最后一篇了,由于个人原因,原来的迁移我无法继续参与了,但完整的方案我已经准备好了,在测试环境也已经可以正常进行了。...上篇文章 代码重构之旅(一) 项目结构 介绍了迁移代码的前期准备和项目结构的设计,本篇文章来介绍一下可实施的迁移方案。...使代码的迁移过程更简单、更安全是我们要追求的目标,在迁移之前,代码的可用性我们一定也只能画一个问号。...问题抽象分析 首先要看一下一次完整的迁移需要满足什么要求: 灰度发布,谁也无法保证一次将整个系统迁移到另一个系统不会发生问题,而以接口或接口部分流量为单位进行迁移则可以大大提升可控性。...测试 一次安全的迁移,完整的测试当然必不可少。在保证技术方案没问题的前提下,还要进行完整的业务逻辑测试。在 QA 测试之前,开发首先要通过尽可能完整的测试,将 BUG 率降到最低。

    1.8K90

    Ceph 集群整体迁移方案

    本文就介绍了一种实现业务不中断的数据迁移方案,并已经在多个生产环境执行。 本文的环境均为:Openstack+Ceph 运行虚拟机的场景,即主要使用RBD,不包含RGW,MDS。...本次迁移主要分为两个组件的迁移,即 MON 和 OSD,这里我们先介绍 OSD 的数据迁移。...,而是选择了执行步骤较为复杂的上面的方案,先 scp 到新节点,再 rm掉旧节点的数据。...在本次方案测试过程中,遇到了如下的一些问题,需要引起充分的注意: Ceph 版本不一致: 由于旧的节点的 Ceph 版本为 0.94.5 ,而新节点安装了较新版本的 10.2.7, 在副本 2=>4 的过程中...MON 的迁移 原理介绍 相比于 OSD 的数据迁移,MON 的迁移比较省时省力一些,步骤相对简单,但是里面涉及的原理比较复杂,操作也需要细心又细心。

    4K50

    Ceph 集群整体迁移方案

    本文就介绍了一种实现业务不中断的数据迁移方案,并已经在多个生产环境执行。 本文的环境均为:Openstack+Ceph 运行虚拟机的场景,即主要使用RBD,不包含RGW,MDS。...本次迁移主要分为两个组件的迁移,即 MON 和 OSD,这里我们先介绍 OSD 的数据迁移。...到新节点,而是选择了执行步骤较为复杂的上面的方案,先 scp 到新节点,再 rm掉旧节点的数据。...在本次方案测试过程中,遇到了如下的一些问题,需要引起充分的注意: Ceph 版本不一致: 由于旧的节点的 Ceph 版本为 0.94.5 ,而新节点安装了较新版本的 10.2.7, 在副本 2=>4 的过程中...MON的迁移 原理介绍 相比于 OSD 的数据迁移,MON 的迁移比较省时省力一些,步骤相对简单,但是里面涉及的原理比较复杂,操作也需要细心又细心。

    2.6K120

    Elasticsearch数据在线迁移方案

    背景在线迁移技术是基于腾讯云ES于2020年5月份发布的双网卡技术实现的一种迁移方案。因此,这里需要注意,要迁移的目的ES集群需要是在2020年5月后创建的才适用。...从而实现一种平滑迁移不停服的效果。...图片迁移步骤0)信息收集该步骤用于确认自建集群是否支持在线融合迁移至腾讯云ES[模板] 客户名称-自建ES信息首先对客户需要迁移的集群做信息采集工作,其中最关键的为集群名称、版本、license、节点信息...注意在线融合方案的稳定性依赖专线的可靠性,融合期间需确保网络环境稳定。否则当网络出现故障,则可能会导致集群发生失主,集群将不可用,需要人为介入恢复。...只要源ES集群和腾讯云ES集群能够网络互通,都可以选择在线迁移方案,这种方案对源ES集群的可用性和稳定性没有任何影响,彻底做到平滑迁移业务不停服。这也是首选的迁移方案

    85753

    flask 数据库迁移_数据库迁移方案

    所有最好的方式就是数据库迁移。它可以追踪数据库模型的变化,然后把变动应用到数据库中。 在flask中可以使用Flask-Migrate扩展,来实现数据迁移。...会创建migrations文件夹,所有的迁移文件都放在里面。 python manage.py db init 创建自动迁移脚本: upgrade():函数把迁移中的改动应用到数据库中。...自动创建的迁移脚本会 根据模型定义和数据库当前状态的差异,生成upgrade()和downgrade()函数的内容。 对比不一定完全正确,有可能会遗漏一些细节,需要进行检查。...只需要把-m给删掉就可以了,参数太多没办法 发现有不同,此时更新数据库 python manage.py db upgrade 更新完之后,在数据库会出现一个表 versions每迁移一次里面都会生成一个文件

    3.8K20

    Oracle迁移到Greenplum的方案

    greenplum是一款开源的分布式数据库存储解决方案,主要关注数据仓库和BI报表及多维查询等方面。采用了shared-nothing的大规模并行处理MPP架构。...目前我手头的工作是需要将oracle数据库迁移到greenplum库中,大概收集了一下资料。...因为greenplum数据库是基于postgresql的,所以可以使用oracle迁移到postgresql的方式来做。...先看一下官网: https://wiki.postgresql.org/wiki/Converting_from_other_Databases_to_PostgreSQL 官网上列举了所有oracle迁移到.../tmp  OUTPUT_DIR /application/ora2pg/output  主要就是配置了连接Oracle的信息,选择要导出的类型,导出的文件存储在哪个目录下等等 目前的问题是,这写方案都不是一键完成的

    1.4K10

    Hive全库数据迁移方案

    背景 Hive的迁移涉及两个技术点: 1. 仅迁移元数据,可参考网易云提出的思路; 2. 元数据及Hive数据全量迁移。...考虑到多数场景是迁移整个Hive数据库,该篇文章只介绍迁移的第二种,即元数据及Hive数据全量迁移迁移方案一: 1....将本地的导出数据上传至新的集群hdfs中(数据迁移) 前提:已将导出的数据目录迁移至新集群 上传数据 hdfs dfs -put ~/export_db /tmp/export_db_export 注:...~/import.sql 导入数据 这里也需要设置hive的默认数据库 vim ~/.hiverc use import_db; 导入数据 hive -f ~/import.sql 至此Hive数据的迁移就完成...迁移方案二: 在部分有安全控制的集群环境下,hive连接被禁用了。这时候需要使用beeline连接hive并进行数据迁移,下面给大家介绍下如何使用beeline来进行数据迁移 1.

    5K2119

    【MySQL】数据平滑迁移方案思考

    文章目录 数据迁移方案 两个方案的bug 数据校验工具 数据迁移方案 这个想一下redis是怎么把数据做持久化的,思路就有了:快照 + 追加日志。...注意点: 1、在完成数据迁移之前,上游业务依然是访问旧数据库的。 2、研发一个数据迁移工具,进行离线数据迁移。 3、不断刷新“追加日志” 4、写一个数据校验脚本。...5、在架构的时候就应该考虑到有一天要迁移,所以这时候就可以平滑迁移了。比方说:使用虚ip的方式。 还有一种方案,是用 双写 的方式。好像在哪里见过,不知道是不是redis恢复数据的时候。...数据完成迁移之前,上游应用业务依旧通过旧的服务访问数据。 注意点: 1、对旧库的修改,在新库上进行相同的修改操作,称之为双写。...这个方案就是说要一条一条的写进去,没有前面直接一个快照来的爽,不过快照有拖尾性。 3、切库之前要进行数据校验。 两个方案的bug 方案一:建议在夜深人静的时候做,可以尽快追平。

    1.4K30

    Hadoop NameNode、DataNode热迁移方案

    datanode92.bi、namenode01.bi服务器上的DataNode服务下线 由于namenode02.bi服务器配置较低,因此将namenode02.bi服务器上的NameNode服务下线,将其迁移到配置更高的...5、当所有要退役的节点状态都为Decommissioned,且Number of Under-Replicated Blocks数值为0,表明数据迁移工作已经完成 6、从slaves文件中清空退役节点...二、NameNode迁移 1、停止服务: 停止namenode02.bi上的 namenode、zkfc、journalnode、resourcemanager 服务,使namenode02.bi上的修改记录数据和元数据不再更新...单独在新节点的机器上启动新节点上的DataNode: /usr/local/hadoop-2.6.3/sbin/hadoop-daemon.sh start datanode 四、问题记录及参考资料 NameNode热迁移方案...如何在不影响hadoop集群正常运行的情况下迁移主控节点[namenode] Jps介绍以及解决jps无法查看某个已经启动的java进程问题

    2.2K20
    领券