Loading [MathJax]/jax/output/CommonHTML/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Ceph用户邮件列表Vol45-Issue3

Ceph用户邮件列表Vol45-Issue3

作者头像
用户2772802
发布于 2018-08-06 10:09:30
发布于 2018-08-06 10:09:30
59100
代码可运行
举报
文章被收录于专栏:磨磨谈磨磨谈
运行总次数:0
代码可运行

ceph Vol 45 Issue 3

1.Crash in ceph_readdir.

Hello, I’ve been investigating the following crash with cephfs: ··· According to the state of the ceph_inoide_info this means that ceph_dir_is_complete_ordered would return true and the second condition should also be true since ptr_pos is held in r12 and the dir size is 26496. So the dentry being passed should be the 2953 % 512 = 393 in the cache_ctl.dentries array. Unfortunately my crashdump excldues the page cache pages and I cannot really see what are the contents of the dentries array.

Could you provide any info on how to further debug this

作者在使用cephfs的时候遇上了崩溃的情况,readdir的操作

Yan, Zheng已经对这个bug进行了修复

https://git.kernel.org/cgit/linux/kernel/git/torvalds/linux.git/commit/?id=af5e5eb574776cdf1b756a27cc437bff257e22fe https://git.kernel.org/cgit/linux/kernel/git/torvalds/linux.git/commit/?id=a3d714c33632ef6bfdfaacc74ae6ba297b4c5820

但是这个是提交到Linux kernel的4.6的分支里面去了的,所以目前从官方版本来说是4.6或者更新的版本才会解决

这个问题只能是说遇到了再升级内核了

2.Can’t activate OSD

Hello all, Over the past few weeks I’ve been trying to go through the Quick Ceph Deploy tutorial at: ceph-deploy osd activate ceph02:/dev/sdc ceph03:/dev/sdc part. It never actually seems to activate the OSD and eventually times out: [ceph03][INFO ] Running command: sudo /usr/sbin/ceph-disk -v activate —mark-init systemd —mount /dev/sdc [ceph03][WARNIN] main_activate: path = /dev/sdc [ceph03][WARNIN] No data was received after 300 seconds, disconnecting…

作者在部署osd的时候出现无法激活osd的问题,最后在别人的帮助下发现了问题,在交换机上创建了 VLAN ,但没允许jumbo packets,所以出现了问题

另外一个人也出现了类似的问题,通过升级了parted解决问题(from 3.1 from the CentOS7 base)

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
rpm -Uhv ftp://195.220.108.108/linux/fedora/linux/updates/22/x86_64/p/parted-3.2-16.fc22.x86_64.rpm

这个一般没什么问题,确实定位到这里再升级了,一般情况下很少出现不能activate osd的情况

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2016-11-11,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 磨磨谈 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
处理Ceph osd的journal的uuid问题
一、前言 之前有一篇文章介绍的是,在centos7的jewel下面如果自己做的分区如何处理自动挂载的问题,当时的环境对journal的地方采取的是文件的形式处理的,这样就没有了重启后journal的磁盘偏移的问题 如果采用的是ceph自带的deploy去做分区的处理的时候,是调用的sgdisk去对磁盘做了一些处理的,然后deploy能够识别一些特殊的标记,然后去做了一些其他的工作,而自己分区的时候,是没有做这些标记的这样就可能会有其他的问题
用户2772802
2018/08/06
1.1K0
CentOS 7.5安装部署Jewel版本Ceph集群
1、修改cpeh.conf文件 注意mon为奇数,如果为偶数,有一个不会安装,另外设置好public_network,并稍微增大mon之间时差允许范围(默认为0.05s,现改为2s)
三杯水Plus
2018/11/14
8410
Ceph分布式存储 - 学习笔记
一、Ceph简单介绍 OSDs:Ceph的OSD守护进程(OSD)存储数据,处理数据复制,恢复,回填,重新调整,并通过检查其它Ceph OSD守护程序作为一个心跳 向Ceph的监视器报告一些检测信息。Ceph的存储集群需要至少2个OSD守护进程来保持一个 active + clean状态.(Ceph默认制作2个备份,但可以调整它) Monitors:Ceph的监控保持集群状态映射,包括OSD(守护进程)映射,分组(PG)映射,和CRUSH映射。 Ceph 保持一个在Ceph监视器, Ceph OSD 守护进程和 PG的每个状态改变的历史(称之为“epoch”)。 MDS:MDS是Ceph的元数据服务器,代表存储元数据的Ceph文件系统(即Ceph的块设备和Ceph的对象存储不使用MDS)。Ceph的元数据服务器使用POSIX文件系统,用户可以执行基本命令如 ls, find,等,并且不需要在Ceph的存储集群上造成巨大的负载。
洗尽了浮华
2022/03/29
1.1K0
ceph基础运维操作 原
保存退出 开始安装ceph Yum install ceph –y 完毕之后初始化目录
domain0
2018/08/02
7770
ceph 分布式存储-文件存储(CephFS)搭建
PG数量的预估 集群中单个池的PG数计算公式如下:PG 总数 = (OSD 数 * 100) / 最大副本数 / 池数 (结果必须舍入到最接近2的N次幂的值)
Lucien168
2020/07/20
5.7K0
ceph运维操作
如果是在admin节点修改的ceph.conf,想推送到所有其他节点,则需要执行下述命令
匿名用户的日记
2022/01/05
3.5K0
Ceph数据盘怎样实现自动挂载
在Centos7 下,现在采用了 systemctl来控制服务,这个刚开始用起来可能不太习惯,不过这个服务比之前的服务控制要强大的多,可以做更多的控制,本节将来介绍下关于 Ceph的 osd 磁盘挂载的问题
用户2772802
2018/08/06
2.2K0
ceph集群搭建
环境: 10.200.51.4 admin、osd、mon 作为管理和监控节点 10.200.51.9 osd、mds 10.200.51.10 osd、mds 10.200.51.113~client 节点
cuijianzhe
2022/06/14
6360
ceph集群搭建
搭建Ceph分布式存储
[root@dlp ~]# ls /etc/yum.repos.d/  ##必须保证有默认的官网源,结合epel源和网易的ceph源,才可以进行安装;
星哥玩云
2022/07/28
1.4K0
搭建Ceph分布式存储
Ceph 快速部署 ( Centos7 + Jewel )
作者:徐凯 这篇文章主要介绍了如何用三台虚拟机搭建一套Ceph分布式系统,步骤简洁但不失准确性。环境清理一小节可以解决绝大多数部署不成功的问题,最后一节介绍了常用的Ceph操作,希望能给刚搭建环境的
腾讯云TStack
2017/09/21
1.9K0
Ceph用户邮件列表Vol45-Issue2
这个问题是作者在升级了一个集群以后(jewel 10.2.3),做删除的时候,发现提示了 No space left on device,按正常的理解做删除不会出现提示空间不足
用户2772802
2018/08/06
4890
Ceph用户邮件列表Vol45-Issue2
Ceph 部署完整版 ( el7+jewel )
腾讯云TStack
2017/10/11
4.6K0
Ceph 部署完整版 ( el7+jewel )
Ceph集群由Jewel版本升级到Luminous版本
https://www.virtualtothecore.com/en/upgrade-ceph-cluster-luminous/ http://www.chinastor.com/distristor/11033L502017.html
三杯水Plus
2018/11/14
1.6K0
ceph-mimic版
Ceph使用RADOS提供对象存储,通过librados封装库提供多种存储方式的文件和对象转换。外层通过RGW(Object,有原生的API,而且也兼容Swift和S3的API,适合单客户端使用)、RBD(Block,支持精简配置、快照、克隆,适合多客户端有目录结构)、CephFS(File,Posix接口,支持快照,社会和更新变动少的数据,没有目录结构不能直接打开)将数据写入存储。
yuezhimi
2020/09/30
9550
部署Ceph存储集群及块设备测试
安装ceph包(代替ceph-deploy install node1 node2,下面命令需要在每台node上安装)
星哥玩云
2022/07/28
7370
部署Ceph存储集群及块设备测试
使用ceph-ansible部署Ceph Octopus
之前用的是 ceph-deploy 部署 ceph 集群,在官网的最新介绍中有如下描述:
tanmx
2021/01/03
4.4K0
Ceph CookBook
原因:2017年5月4日 星期四 理解Ceph。 说明:阅读书籍。 官方文档:http://docs.ceph.com/docs/master/rbd/rbd-openstack/ 块存储、文件储存、对象存储:http://limu713.blog.163.com/blog/static/15086904201222024847744/ 可靠性、低成本、可扩展 SDS(软件定义存储-softwate defined storage) SDS可以降低存储基础设施的TCO(Total Cost of O
ZHaos
2019/02/27
1.6K0
初试 Ceph 存储之块设备、文件系统、对象存储
哎_小羊
2018/01/02
6.7K0
初试 Ceph 存储之块设备、文件系统、对象存储
基于cephfs搭建高可用分布式存储并mount到本地
原文:https://www.fullstackmemo.com/2018/10/11/cephfs-ha-mount-storage/
sunsky
2020/08/20
2.9K0
基于cephfs搭建高可用分布式存储并mount到本地
Docker 容器化部署运维 OpenStack 和 Ceph
当前,以 OpenStack 为代表的 IaaS 开源技术和以 Docker 为代表的 PaaS/CaaS 容器技术日益成熟,二者如何强强联合,一直是业界颇为关心的焦点领域。本文主要是和大家交流基于 Docker 容器运行和部署 OpenStack。 那么,安装 OpenStack 都有哪些方法呢?对于很多刚接触 OpenStack 的新人而言,安装无疑是一大挑战,同时也直接提高了学习 OpenStack 云计算的技术门槛。 安装 OpenStack 有哪些方式 1.DevStack 在相当长一段时间内,D
CSDN技术头条
2018/03/26
9.1K0
Docker 容器化部署运维 OpenStack 和 Ceph
相关推荐
处理Ceph osd的journal的uuid问题
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验