我有很多~1GB文件(数据库转储文件,定期采取)。现在,我只是将它们全部存储在一个目录中,每个文件都经过gzipped压缩。我们的磁盘空间快用完了,我们想继续存储旧的。忽略了向问题扔钱买更多磁盘的明显解决方案,有没有办法以一种空间高效的方式存储这些磁盘?
每个文件都是一个数据库转储文件,每半个小时就取一次,因此应该有很多重复的内容。有没有什么程序可以让这件事变得更容易。我不想尝试一个新的文件系统。我正在玩git & git-repack,但这需要大量的内存。还有什么更简单的吗?
发布于 2011-09-26 06:00:30
接下来,您可以对数据库进行增量备份,但是它们需要更长的恢复时间,如果需要审计的话,从时间点恢复则要复杂得多。
就像你说的,你现在每30分钟就能吃满一次,你可以每30分钟吃一次,而且只需要6或24小时,长期的增量。(从理论上讲,如果您需要恢复速度,这可能是一种灾难恢复场景,因为您需要最新的情况)。
如果您有关于增量备份或其他备份策略的问题,请尝试数据库栈交换。
发布于 2011-09-26 07:36:12
除了增量备份之外,还可以将旧备份移到接近行的归档存储中.这可能包括磁带,外部硬盘驱动器,光学媒体(附带注意事项)的组合,等等。
我的经验是,方便地访问工作备份就足够了。如果您需要更快地访问备份,您可以购买更多的硬件或自动化一些检索步骤,以加快速度。
发布于 2011-09-26 08:15:13
您可以考虑去复制文件存储,因为您的数据应该有大量的重复信息。但是,如果您使用来自知名供应商的硬件解决方案,则成本要比其他磁盘的成本高得多。好消息是有几个开源项目,其中一个是开放达普。有更多的,但我没有他们的信息方便。
另一种选择是使用已经使用某种去复制的备份软件/服务。我们目前正在使用一种基于Asigra软件的解决方案,我们每天备份整个VMware虚拟机映像,每天保持30天,实现1:10的数据缩减。
https://serverfault.com/questions/315536
复制相似问题