首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Windows系统迁移

当我们为电脑更换硬盘时(比如更换大一点的硬盘或将 HDD 更换为 SSD),往往需要考虑原硬盘上的系统和数据怎么办。重装系统是一个选择,但重装系统后还要重装系统上的软件,还要迁移数据,费时又费力。另一个方法是迁移系统,这样既不用重装系统也不用重装软件,且系统上的数据还全部保存了下来。然而 Windows 系统自身并没有提供系统迁移的工具,不像 Linux 提供了 dd 命令可以用来直接镜像整个分区从而实现系统迁移。更为遗憾的是,就算手头有 Linux 系统,直接使用 dd 对 Windows 系统进行拷贝,迁移后的 Windows 只会是蓝屏/黑屏,因为迁移系统不仅仅是拷贝分区就够了,对应的分区信息也要修改的。虽然 Linux 也是这样,但 Linux 可以通过手动引导进入系统,然后再更新引导信息,而 Windows 一旦蓝屏/黑屏就令人束手无策了,Windows Live CD 提供的引导修复功能也不尽人意。

03
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    GPT概述

    全局唯一标识分区表(GUID Partition Table,缩写:GPT)是一个实体硬盘的分区结构。它是可扩展固件接口标准的一部分,用来替代BIOS中的主引导记录分区表。传统的主启动记录 (MBR) 磁盘分区支持最大卷为 2.2 TB (terabytes) ,每个磁盘最多有 4 个主分区(或 3 个主分区,1 个扩展分区和无限制的逻辑驱动器)。与MBR 分区方法相比,GPT 具有更多的优点,因为它允许每个磁盘有多达 128 个分区,支持高达 18 千兆兆字节 (exabytes,1EB=10^6TB) 的卷大小,允许将主磁盘分区表和备份磁盘分区表用于冗余,还支持唯一的磁盘和分区 ID (GUID)。 与 MBR 分区的磁盘不同,GPT的分区信息是在分区中,而不象MBR一样在主引导扇区。为保护GPT不受MBR类磁盘管理软件的危害,GPT在主引导扇区建立了一个保护分区 (Protective MBR)的MBR分区表,这种分区的类型标识为0xEE,这个保护分区的大小在Windows下为128MB,Mac OS X下为200MB,在Window磁盘管理器里名为GPT保护分区,可让MBR类磁盘管理软件把GPT看成一个未知格式的分区,而不是错误地当成一个未分区的磁盘。另外,GPT 分区磁盘有多余的主要及备份分区表来提高分区数据结构的完整性。

    02

    一种基于Linux文件系统的数据恢复方法_武汉病例轨迹

    起因: 昨天晚上思路不是很清晰(上了一天班回来有点蒙),还是强忍着疲惫想搞事情,结果悲剧了… … 本来想拿SD卡做一张linux烧录卡,烧录脚本是很久以前写的,有git记录,一直不成功,就回退了几次提交,然后执行的时候没有给脚本传参(/dev/sd**),结果脚本中默认磁盘设备为/dev/sdb ,在现在电脑上是一块数据磁盘,执行到一半的时候由于某些原因意外退出,但还是有一些命令执行,比如最致命的一条: dd if=/dev/zero of=${node} bs=1024 count=1 conv=fsync conv=notrunc node指向的就是/dev/sdb 然后把LVM2 label、meta data、分区表都给删除了,由于此硬盘在/etc/fstab中有记录,所以今天开机有卡主了,开始以为磁盘接触不良,进入linux recovery模式屏蔽掉fstab中相关选项后进入系统. ls -l /dev/sd* 发现只有/dev/sdb 没有分区信息,接着执行fdisk /dev/sdb, p打印信息 Command (m for help): p Disk /dev/sdb: 465.8 GiB, 500107862016 bytes, 976773168 sectors Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 4096 bytes I/O size (minimum/optimal): 4096 bytes / 4096 bytes Disklabel type: dos Disk identifier: 0x********* 同样没有分区信息,回想昨晚的操作,终于……(一身冷汗)

    01

    一个60亿数据表改分区表+数据清理的改进思路(r7笔记第19天)

    今天有个同学问我一个问题,也是一个实际的案例,我简单分析了一下,发现还是有很多可以考究的地方。仅做参考。 问题是,系统里目前有一个大表,因为历史数据的沉淀,目前有60多亿的数据,不是分区表,现在得到反馈说insert的操作比较满,想优化一下,同时把部分历史数据需要做一些清理。 对于这类操作,要求停机时间尽可能短,有什么好的办法。 对于这个问题看起来问题似乎是很明显的。 目前反应出的问题是Insert慢,可能有下面的几个原因。 1.表索引巨大,索引维护管理要复杂一些 2.表中可能含有一些冗余索引,或者多个索引

    09
    领券