我正在审查linux脚本,这些脚本旨在对目录进行逐时备份,并将备份复制到另一台服务器。脚本由cron运行。它们都遵循如下相同的通用代码路径:
cd /path/to/parent/directory
tar -zcvf data_backup.tar.gz data
sleep 10
# scp file to server
我想知道sleep 10命令的原因是什么。我知道这会使这个过程停止10秒,但是为什么作者会把这个放在第一位呢?我假设在完成tar命令之后,文件将被正确地刷新到磁盘,scp命令可以在没有错误的情况下执行。
这些脚本运行在CentOS 6& CentOS 7系统上。写
无论我尝试做什么,无论是安装新软件,还是尝试sudo apt-获得升级。
有时我总是出错:(当我尝试sudo apt升级时)
Reading package lists... Done
Building dependency tree
Reading state information... Done
You might want to run 'apt-get -f install' to correct these.
The following packages have unmet dependencies:
linux-image-generic-hwe
我的问题是,我有一个硬盘,有一个linux服务器(It fails during booting up process)和一些有价值的文件。( tried almost all solutions on the internet but no luck)
现在我找到了一家公司,它可以发送硬盘进行修复,但是由于我的硬盘上有一些有价值的信息,我需要能够复制硬盘并将副本发送给它们(以防丢失、失败等)。
发现了解决方案,但在linux系统正常工作时(如dd ,Partimage ,Partclone )可以正常工作。
但是,我想知道如何在不启动时获得linux硬盘的第二份副本?有可能吗?(我相信,即使
我正在运行一个应用程序,该应用程序使用O_DSYNC选项打开NFS挂载中的文件。然后,应用程序在循环中将6500字节的数据写入文件1000次。
我监视了客户端的行为,并注意到它以4096字节和8192字节的批处理将写入发送到底层文件系统。
根据man open,对使用O_DSYNC打开的文件的写操作将根据同步I/O数据完整性完成的要求来完成。它进一步说,
O_DSYNC provides synchronized I/O data integrity completion, meaning write operations will flush data to the underlying h