前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >【Ceph】Ceph集群的pg auto scale

【Ceph】Ceph集群的pg auto scale

作者头像
runzhliu
发布于 2020-11-24 07:28:14
发布于 2020-11-24 07:28:14
1.7K00
代码可运行
举报
文章被收录于专栏:容器计算容器计算
运行总次数:0
代码可运行

对部分集群从 V12 升级到 V14 之后,就迎来了 Nautilus 版本的一个重要特性,就是 pg 的自动扩展。运维 Ceph 集群的朋友应该会感受到,如果经常扩容,上了 OSD 之后,又还需要去计算一遍 pg 的个数,然后再设置一次,还是比较麻烦的,而且公式本身比较简单,为什么不能让 pg 打到阈值之后自动分裂扩展呢?在 Nautilus 版本,就提供了这么一个模块工具,开启之后,就可以以 pool 为粒度的 pg 自动扩展。

下面我们看一下效果,可以看到由于升级到 Nautilus 之后,PG 的默认数量调整成32了,所以升级之后马上就会有这个 Warning,表示之前的 Pool 的 PG 跟32相比,多数原来在 V12 设置为 8 的一些 Pool 绝对就会说少了,所以下面做个试验,把其中一个 Pool 设置成 pg auto scale。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ceph osd pool autoscale-status
ceph osd pool set default.rgw.buckets.index pg_autoscale_mode on

开启之后会发现,该 Pool 的 AUTOSCALE 的地方从 warn 变成了 on,意思是即将把 PG 拆成32了。

最后看一下结果,这里是需要等待一小段时间让 PG 做完扩展的,default.rgw.buckets.index 确实被设置成32个 PG 了。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2020/11/18 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
Ceph RADOS Gateway安装
对象存储以独立的对象的形式管理数据,而不是传统的文件层次结构或块存储的形式。每个对象包括数据、元数据和唯一标识符。元数据是描述数据的信息,比如创建日期、类型和其他相关信息。
没有故事的陈师傅
2023/08/09
6730
Ceph RADOS Gateway安装
【Ceph】1 pools have many more objects per pg than average
公司 Ceph 集群从 v12 升级到 v14 后,今天某个 CephFS 的集群收到一个 HEALTH_WARN 的告警,具体的 Warning 的信息为 1 pools have many more objects per pg than average。
runzhliu
2020/11/15
2.4K0
容器实战|手把手带你部署Ceph集群
部署Ceph之前我们需要对自身机器的环境做初始化。主要涉及到防火墙,主机名等设置。
灵雀云
2021/11/25
5K0
容器实战|手把手带你部署Ceph集群
实用的Ceph分布式集群部署指南
这几天都在学习搭建Ceph集群,这真是一部心酸的血泪史。下面我就将我的安装过程以及踩过坑,一五一十的陈述出来。
码农飞哥
2021/08/18
9660
Ceph:关于Ceph 集群中池管理的一些笔记
对每个人而言,真正的职责只有一个:找到自我。然后在心中坚守其一生,全心全意,永不停息。所有其它的路都是不完整的,是人的逃避方式,是对大众理想的懦弱回归,是随波逐流,是对内心的恐惧 ——赫尔曼·黑塞《德米安》
山河已无恙
2023/08/21
8180
Ceph:关于Ceph 集群中池管理的一些笔记
使用ansible部署ceph集群
查看安装状态,发现有一个警告,这是因为在之前的all.yml配置没有开启允许自动调整pool中的pg数pg_autoscale_mode: False,手动设置下即可
没有故事的陈师傅
2021/02/01
1.8K1
【问题修复】osd自杀问题跟踪
RGW的index数据以omap形式存储在OSD所在节点的leveldb中,当单个bucket存储的Object数量高达百万数量级的时候,deep-scrub和bucket list一类的操作将极大的消耗磁盘资源,导致对应OSD出现异常,如果不对bucket的index进行shard切片操作(shard切片实现了将单个bucket index的LevelDB实例水平切分到多个OSD上),数据量大了以后很容易出事。
Lucien168
2020/07/20
2K0
【问题修复】osd自杀问题跟踪
[pve][ceph]升级pve6的ceph版本Luminous到Nautilus
上次把集群节点的pve版本从v5升级到v6,这次把分布式存储ceph的版本从Luminous(v12)升级到Nautilus(v14)。
用户9314062
2022/05/20
1.2K0
[pve][ceph]升级pve6的ceph版本Luminous到Nautilus
ceph 分布式存储-块存储(RBD)搭建
PG数量的预估 集群中单个池的PG数计算公式如下:PG 总数 = (OSD 数 * 100) / 最大副本数 / 池数 (结果必须舍入到最接近2的N次幂的值)
Lucien168
2020/07/20
3.7K0
Ceph 自动化四大天王
每一个Ceph新手,都或多或少被文中提到的四大天(坑)王吊打过,或钢筋铁骨成为大神,或删库跑路沦为亡魂。因此有必要给大家早早普及一下这四大天王的手段,帮各位早脱苦海。本文建立在你已经基本了解Ceph的构架和基本原理,如果不熟悉的同学可以看下面内容
用户1260683
2021/12/04
1.3K1
RGW Bucket Shard设计与优化-中
如何缓解 index shard 过大造成的影响 下面这些都是属于应急操作,属于快速止血止痛,部分操作属高危,一定要谨慎使用。 1 调整OSD的几个op超时参数 下面的几个参数只是用例,具体根据各位线上情况进行调整,但是不宜过大。 osd_op_thread_timeout = 90 #default is 15 osd_op_thread_suicide_timeout = 300 #default is 150 filestore_op_thread_timeout = 180 #d
用户1260683
2018/01/31
4.3K1
手动部署ceph octopus集群
所有 Ceph 群集至少需要一个monitor,并且至少需要与存储在群集上的对象副本一样多的 OSD。引导初始mon是部署 Ceph 存储群集的第一步,这里我直接在node1、node2、node3创建三个mon。
没有故事的陈师傅
2021/02/01
2.7K2
ceph 运维操作-POOL
pool是ceph存储数据时的逻辑分区,它起到namespace的作用。其他分布式存储系统,比如Mogilefs、Couchbase、Swift都有pool的概念,只是叫法不同。 每个pool包含一定数量的PG,PG里的对象被映射到不同的OSD上,因此pool是分布到整个集群的。
Lucien168
2020/07/20
1.3K0
通过libvirt使用ceph块设备
[root@ceph1 ~]# qemu-img convert -f qcow2 -O raw centos6864.qcow2.img rbd:libvirt-pool/centos6864.qcow2.img
Laikee
2022/04/25
1.1K0
kubernetes(十九) Ceph存储入门
Ceph是当前非常流行的开源分布式存储系统,具有高扩展性、高性能、高可靠性等优点,同时提供块存储服务(rbd)、对象存储服务(rgw)以及文件系统存储服务(cephfs),Ceph在存储的时候充分利用存储节点的计算能力,在存储每一个数据时都会通过计算得出该数据的位置,尽量的分布均衡。目前也是OpenStack的主流后端存储,随着OpenStack在云计算领域的广泛使用,ceph也变得更加炙手可热。国内目前使用ceph搭建分布式存储系统较为成功的企业有华为,xsky,杉岩数据,中兴,华三,浪潮,中移动等。
alexhuiwang
2020/09/23
4K0
kubernetes(十九) Ceph存储入门
Ceph:关于 Ceph 存储架构的一些笔记
Ceph 集群搭建使用标准硬件和存储设备的服务器,是一个高度可扩展的分布式存储系统, 采用模块化分布式架构。Ceph 主要通过 RADOS 核心组件来提供能力。
山河已无恙
2023/08/21
1.4K0
Ceph:关于 Ceph 存储架构的一些笔记
Rocky8.5 部署 Ceph
陳斯托洛夫斯記
2024/08/07
4380
RedHat Ceph存储——《面向生产环境的Ceph 对象网关指南》
本文由Ceph中国社区-穆艳学翻译、刘源校稿,英文出处:Red_Hat_Ceph_Storage-2-Ceph_Object_Gateway_for_Production 欢迎加入CCTG 目录 第1章 简介 1.1.适用人群 1.2.前题假设 1.3.涵盖内容 第2章 集群规划 2.1.识别应用场景 2.2.选择数据持久化方法 2.3.考虑多站点部署 第3章 硬件考虑 3.1.存储规模 3.2.存储密度 3.3.网络硬件 3.4.UPS 3.5.依业务场景的硬件选型 3.6.存储桶索引使用SSD 3.7
魏新宇
2018/06/25
3.4K0
Ceph的pg算法
PG介绍 PG, Placement Groups。CRUSH先将数据分解成一组对象,然后根据对象名称、复制级别和系统中的PG数等信息执行散列操作,再将结果生成PG ID。可以将PG看做一个逻辑容器,这个容器包含多个对象,同时这个逻辑对象映射之多个OSD上。 如果没有PG,在成千上万个OSD上管理和跟踪数百万计的对象的复制和传播是相当困难的。没有PG这一层,管理海量的对象所消耗的计算资源也是不可想象的。建议每个OSD上配置50~100个PG。
院长技术
2020/06/11
3K0
ceph-mimic版
Ceph使用RADOS提供对象存储,通过librados封装库提供多种存储方式的文件和对象转换。外层通过RGW(Object,有原生的API,而且也兼容Swift和S3的API,适合单客户端使用)、RBD(Block,支持精简配置、快照、克隆,适合多客户端有目录结构)、CephFS(File,Posix接口,支持快照,社会和更新变动少的数据,没有目录结构不能直接打开)将数据写入存储。
yuezhimi
2020/09/30
9530
相关推荐
Ceph RADOS Gateway安装
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验