Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Ceph配置参数(一)

Ceph配置参数(一)

作者头像
DevinGeng
发布于 2019-04-09 09:07:58
发布于 2019-04-09 09:07:58
2.1K0
举报
文章被收录于专栏:云+技术云+技术

本篇博文转载于http://blog.csdn.net/uj_mosquito/article/details/41827373?utm_source=tuicool

1、POOL, PG AND CRUSH CONFIG REFERENCE

http://docs.ceph.com/docs/master/rados/configuration/pool-pg-config-ref/

所属配置段:【global】

格式:osd pool default pg num = 250

  • 每个存储池最大pg数:mon max pool pg num
  • 同一个OSD Daemon中创建PG所间隔的秒数:mon pg create interval
  • 等待多少秒PG可被认为被卡主:mon pg stuck threshold
  • Ceph OSD Daemon对PG的标志位位数:osd pg bits
  • Ceph OSD Daemon对PGP的标志位位数:osd pgp bits

注:pg和pgp大部分情况是一样的,但是一个pg分裂成多个时就不一样了

  • CRUSH规则用到chooseleaf时的bucket的类型:osd crush chooseleaf type
  • 创建复制存储池时用到的CRUSH规则:osd pool default crush replicated ruleset
  • 纠删码池中对象被分割成的条带大小:osd pool erasure code stripe width
  • 副本数:osd pool default size
  • 最小副本数:osd pool default min size

注:如果这个数目没达到,ceph不会通知客户端写以完成

  • pg数:osd pool default pg num
  • pgp数:osd pool default pgp num
  • 新创建的存储池的flag:osd pool default flags
  • 列表中最大的PG数:osd max pgls
  • 修建PGLog是保留的最小PGLog数:osd min pg log entries
  • OSD等待客户端相应一个请求的最大秒数:osd default data pool replay window

2、JOURNAL CONFIG REFERENCE

http://docs.ceph.com/docs/master/rados/configuration/journal-ref/

Journal的作用:

(1)速度:随机小块的写操作就直接写入journal,合并成顺序IO再下刷,建议用SSD存放

(2)一致性:为保证操作的事务性,先将操作记录在journal中再应用到文件系统。每隔一段时间, Ceph OSD Daemon停止写操作,将journal和文件系统同步,删除一部分journal使得空间能够被再次利用。故障时, Ceph OSD Daemon从最近的一次同步后的journal的开头按照其内容重新做一次操作。

  • 开启直写Journal(大概是因为journal一般都是存储在块设备上,即在OSD的空间或SSD单独存储):journal dio
  • 开启异步写journal(“直写”设为true这个参数才能设):journal aio
  • 块对齐(这个参数设为true上面两个参数才能设):journal block align
  • 一次写journal的最大byte数:journal max write bytes
  • 最多一次能并行写多少个journal:journal max write entries
  • 任意时刻队列中存储的最大操作数:journal queue max ops
  • 任意时刻队列中存储的最大byte数(10 << 20,即(2^10)<<20=10MB):journal queue max bytes
  • 最小对齐大小:journal align min size
  • 在创建文件系统期间用0填充整个日志:journal zero on create

3、MESSAGING

http://docs.ceph.com/docs/master/rados/configuration/ms-ref/

  • 消息传递的TCP会话中禁用nagle算法:ms tcp nodelay
  • 错误重连的初始等待时间:ms initial backoff
  • 错误重连的最大等待时间:ms max backoff
  • 禁用crc校验(在CPU有限的情况下能都提升性能):ms nocrc
  • debug设置(不配置):ms die on bad msg
  • 等待派遣的最大消息数:ms dispatch throttle bytes
  • 将进程绑定为IPV6的IP:ms bind ipv6
  • 堆栈大小的debug设置(不配置):ms rwthread stack bytes
  • 等待多少秒关闭空闲连接:ms tcp read timeout
  • debug设置(不配置):ms inject socket failures

4、GENERAL CONFIG REFERENCE

http://docs.ceph.com/docs/master/rados/configuration/general-config-ref/

  • 文件系统ID,一个集群一个:fsid
  • 执行管理命令的socket路径(/var/run/ceph/$cluster-$name.asok):admin socket
  • mom,osd,mds写PID的文件(/var/run/$cluster/$type.$id.pid ):pid file
  • 守护进程运行的路径:chdir
  • 最大可以打开的文件数量(防止文件描述符被用光):max open files
  • 可以用信号(通信啥的……):fatal signal handlers

5、FILESTORE CONFIG REFERENCE

http://docs.ceph.com/docs/master/rados/configuration/filestore-config-ref/

  • 开启同步时的调试检查(开销大):filestore debug omap check

(1)扩展属性(重要)

扩 展属性就是在文件系统(XFS、ext4等)固有属性之外的属性,以下的参数是配置如何存储这些参数的,这对系统性能很重要。有些文件系统对属性的长度有 限制,比如ext4限制属性长度不超过4KB,如果没有长度限制,ceph的扩展属性也是存储在底层文件系统中的,如果超过了长度限制,则是存主一个 key/value数据库中(aka omap)。

  • 使用数据库存储扩展属性(ext4必须这么做):filestore xattr use omap
  • 最大的扩展属性长度(不能超过文件规定的长度):filestore max inline xattr size
  • 每一个对象在文件系统中最多可以存储的扩展属性数量:filestore max inline xattrs

(2)同步间隔

减小同步频率可以多合并一点写操作和元数据更新。

  • 最大同步间隔秒数:filestore max sync interval
  • 最小同步间隔秒数:filestore min sync interval

(3)下刷

        filestore flusher使得大文件写scyn前会先排序以求顺序下刷提高性能(事实证明关掉更好,默认也是关掉的)。

  • 开启filestore flusher:filestore flusher
  • flusher的最大文件描述符数量:filestore flusher max fds
  • 开启同步flusher:filestore sync flush
  • 文件系统同步时下刷journal数据:filestore fsync flushes journal data

(4)文件系统队列 (filestore queue)

  • 队列上可以存储的最大操作数:filestore queue max ops
  • 队列上可以存储的最大btye数:filestore queue max bytes
  • 一次最大可以提交的操作数:filestore queue committing max ops
  • 一次最大可以提交的byte数:filestore queue committing max bytes

(5)超时

  • 并行线程数:filestore op threads
  • 文件操作线程超时秒数:filestore op thread timeout
  • 提交一个操作多少秒都可以取消:filestore op thread suicide timeout

(6)B-TREE FILESYSTEM

  • 开启btrfs的快照:filestore btrfs snap
  • 开启btrfs的克隆:filestore btrfs clone range

(7)日志

  • 开启并行日志:filestore journal parallel
  • 开启预写式日志:filestore journal writeahead

(8)MISC

  • 前一个子类目录中的文件合并到父类的最小数量:filestore merge threshold
  • 前一个子目录分裂成子目录中的文件的最大数量:filestore split multiple
  • 限制文件存储自动升级到指定的版本:filestore update to
  • 丢弃任何讨论中的事务:filestore blackhole
  • 存储事务转储目的文件:filestore dump file
  • 在第 N 次机会后注入一个失效:filestore kill at
  • 在 eio错误的时候失败或崩溃:filestore fail eio
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2015/04/01 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
Ceph 架构及性能优化
ceph-mon和ceph-mds需要2G内存,每个ceph-osd进程需要1G内存。
肉眼品世界
2021/04/20
8970
Ceph 故障排查笔记 | 万字经验总结
删除当前 osd 的所有数据,并且重新加载 osd,此操作一定要保证有冗余可用的 osd,否则会造成整个 osd 数据损坏。
米开朗基杨
2021/05/11
8K0
Ceph性能调优和建议
这些集群范围内的配置参数定义在Ceph的配置文件中,因此任何一个Ceph守护进程启动时都将会遵循已定义的设置。缺省的配置文件是ceph.conf,放在/etc/ceph目录下。这个配置文件有一个global部分和若干个服务类型部分。任何时候一个Ceph服务启动,都会应用[gloabl]部分,以及进程特定部分的配置。一个Ceph配置文件有多个部分,如下图所示。
博文视点Broadview
2020/06/12
5.9K0
Ceph性能调优和建议
Ceph配置文件参考
Ceph 配置文件可用于配置存储集群内的所有守护进程、或者某一类型的所有守护进程。要配置一系列守护进程,这些配置必须位于能收到配置的段落之下,比如:
dogfei
2020/07/31
1.4K0
ceph优化记录 ceph.conf优化详解
3、  read_ahead, 通过数据预读并且记载到随机访问内存方式提高磁盘读操作
zhangdd
2018/08/01
2.7K0
Ceph:关于 Ceph 存储架构的一些笔记
Ceph 集群搭建使用标准硬件和存储设备的服务器,是一个高度可扩展的分布式存储系统, 采用模块化分布式架构。Ceph 主要通过 RADOS 核心组件来提供能力。
山河已无恙
2023/08/21
1.4K0
Ceph:关于 Ceph 存储架构的一些笔记
linux ceph原理及搭建
Ceph是一个可靠地、自动重均衡、自动恢复的分布式存储系统,根据场景划分可以将Ceph分为三大块,分别是对象存储、块设备存储和文件系统服务。在虚拟化领域里,比较常用到的是Ceph的块设备存储,比如在OpenStack项目里,Ceph的块设备存储可以对接OpenStack的cinder后端存储、Glance的镜像存储和虚拟机的数据存储,比较直观的是Ceph集群可以提供一个raw格式的块存储来作为虚拟机实例的硬盘。
葫芦
2019/06/20
3.8K0
Ceph 自动化四大天王
每一个Ceph新手,都或多或少被文中提到的四大天(坑)王吊打过,或钢筋铁骨成为大神,或删库跑路沦为亡魂。因此有必要给大家早早普及一下这四大天王的手段,帮各位早脱苦海。本文建立在你已经基本了解Ceph的构架和基本原理,如果不熟悉的同学可以看下面内容
用户1260683
2021/12/04
1.3K1
002.RHCS-配置Ceph存储集群
Red Hat Ceph存储池池是Red Hat Ceph存储集群用于存储对象的逻辑分区。
木二
2019/07/01
1.3K0
如何基于Ceph设计与构建一套软件定义存储系统
目前流行的软件定义存储相关的开源项目主要有GlusterFS、Swift、Lustre和Ceph。这四个项目各有各的特点:GlusterFS提供文件存储,Swift提供对象存储,Lustre主要用在高性能计算,Ceph则基于一套系统提供块、对象及文件功能。
段立功
2022/06/13
6780
Ceph:关于Ceph 集群中池管理的一些笔记
对每个人而言,真正的职责只有一个:找到自我。然后在心中坚守其一生,全心全意,永不停息。所有其它的路都是不完整的,是人的逃避方式,是对大众理想的懦弱回归,是随波逐流,是对内心的恐惧 ——赫尔曼·黑塞《德米安》
山河已无恙
2023/08/21
7980
Ceph:关于Ceph 集群中池管理的一些笔记
Ceph亚太峰会RGW议题分享
Ceph亚太峰会RGW部分议题分享 本次Ceph亚太峰会干货最实在的的要数Redhat的《Common Support Issues and How to Troubleshoot Them》这里把RGW部分摘出来,和大家分享一下,本次议题主要是涉及到RGW中Object数量过多导致的OSD异常如何处理。 故障现象描述 Flapping OSD's when RGW buckets have millions of objects ● Possible causes ○ The first issue h
用户1260683
2018/06/11
2.5K1
Ceph部署在Centos7上简明摘要
最近需要研究Ceph,也部署了一下环境,本文分为1,2,3,4章为概念介绍,第5章为实践环节。
麒思妙想
2020/07/10
1K0
ceph运维操作
如果是在admin节点修改的ceph.conf,想推送到所有其他节点,则需要执行下述命令
匿名用户的日记
2022/01/05
3.4K0
从传统运维到云运维演进历程之软件定义存储(三)下
上回书讲到了运维小哥的调优方法论(上),对于Ceph运维人员来说最头痛的莫过于两件事:一、Ceph调优;二、Ceph运维。调优是件非常头疼的事情,下面来看看运维小哥是如何调优的。
DevinGeng
2019/04/09
7290
从传统运维到云运维演进历程之软件定义存储(三)下
SDNLAB技术分享(十七):Ceph在云英的实践
大家好,我是云英负责存储的研发工程师,杨冠军,很高兴今天能在这里跟大家一起讨论分享下Ceph和Ceph在云英的实践。 首先我先介绍下,Ceph是什么,我们为什么选择Ceph? Ceph是最近开源系统中很火的一个项目,基于Sage Weil的一片博士论文发展而来的一个分布式文件系统,可提供PB级,动态可扩展,数据安全可靠的存储服务。Ceph提供分布式存储服务包括:块存储RBD,对象存储RADOSGW和CephFS三种,基本覆盖了绝大部分企业对存储的需求,所以越来越多企业加入到使用Ceph的行列。在国内也有越来
SDNLAB
2018/03/30
1.9K0
SDNLAB技术分享(十七):Ceph在云英的实践
kubernetes(十九) Ceph存储入门
Ceph是当前非常流行的开源分布式存储系统,具有高扩展性、高性能、高可靠性等优点,同时提供块存储服务(rbd)、对象存储服务(rgw)以及文件系统存储服务(cephfs),Ceph在存储的时候充分利用存储节点的计算能力,在存储每一个数据时都会通过计算得出该数据的位置,尽量的分布均衡。目前也是OpenStack的主流后端存储,随着OpenStack在云计算领域的广泛使用,ceph也变得更加炙手可热。国内目前使用ceph搭建分布式存储系统较为成功的企业有华为,xsky,杉岩数据,中兴,华三,浪潮,中移动等。
alexhuiwang
2020/09/23
3.9K0
kubernetes(十九) Ceph存储入门
Ceph分布式存储日常运维管理手册
nearfull osd(s) or pool(s) nearfull 此时说明部分osd的存储已经超过阈值,mon会监控ceph集群中OSD空间使用情况。如果要消除WARN,可以修改这两个参数,提高阈值,但是通过实践发现并不能解决问题,可以通过观察osd的数据分布情况来分析原因。
民工哥
2020/09/15
2.6K0
Ceph分布式存储日常运维管理手册
ceph运维常用指令
[root@node1 ~]# ceph-deploy purgedata node1
IT运维技术圈
2022/06/26
1.7K0
ceph 运维操作-POOL
pool是ceph存储数据时的逻辑分区,它起到namespace的作用。其他分布式存储系统,比如Mogilefs、Couchbase、Swift都有pool的概念,只是叫法不同。 每个pool包含一定数量的PG,PG里的对象被映射到不同的OSD上,因此pool是分布到整个集群的。
Lucien168
2020/07/20
1.3K0
相关推荐
Ceph 架构及性能优化
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档