首先,我是新来的。我想在家里使用ceph;从zfs迁移。因此,为了学习,我在GCP上安装了一些计算引擎(e2-standard-2),它们都具有Ubuntu20.04最小的磁盘空间和10 gb的磁盘来模拟数据磁盘。
按照cephadm新簇的指南,我能够创建一个集群,其中每个节点都有一个mon、mgr和mds。然而,为了反映我的家庭设置,所有的OSD都在第一个主机上;我知道不推荐,但受可用硬件的限制。能够工作和安装并为Kubernetes集群等提供PV。
接下来,我想测试DR,所以用OSD(模拟OS磁盘丢失)关闭主机;也是我从机器上做的'cephadm bootstrap --mon-ip *<mon-ip>*
‘。其余两个节点仍然可以工作,但它们对有关状态和其他信息的查询的响应要差得多。去仪表盘有时工作,有时超时。
站起一个新的计算引擎,并将OSDs附加到新机器上,然后尝试在工作主机上“ceph orch host add *NEWHOST*
”,它只是挂起(有client.admin.keyring的一个副本)。(日志中有大量错误,因为它无法与原始节点对话)我试着按照手动步骤在NEWHOST上创建mon和osds,但是添加OSD会给我带来错误。
因此,有两个主要问题(以及一系列后续问题)
发布于 2020-12-18 01:43:11
重点不是监视节点,而是OSD,每个OSD上至少有3个对象副本,所以您应该有多于3个OSD。(放置组中的对象内容存储在一组OSD中,而放置组不拥有OSD,它们与来自同一个池甚至其他池的其他放置组共享OSD。)是DR的情况:
1 .The OSD失败,它包含的对象的所有副本都丢失了。对于放置组中的所有对象,复制的数量突然从三个减少到两个。
因此,主要是在创建池时选择一个正确的pg号:
总PG=(OSD×100)/poolsize
池大小是多个副本(在本例中为3)
https://stackoverflow.com/questions/65260628
复制相似问题