Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >ceph v12版本直升v14

ceph v12版本直升v14

作者头像
用户1260683
发布于 2019-12-05 09:53:23
发布于 2019-12-05 09:53:23
1.8K00
代码可运行
举报
运行总次数:0
代码可运行

一个RGW环境的更新,ceph 12.2.12升级到14.2.4流程,跳过中间的13版本。 注意:升级很危险,操作需谨慎。升级没有后悔药,本人不承担任何因升级及相关操作导致的任何数据丢失风险。

yum准备

yum源里面将旧的

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
https://mirrors.aliyun.com/ceph/rpm-luminous/el7/x86_64/

替换为

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
https://mirrors.aliyun.com/ceph/rpm-nautilus/el7/x86_64/

之后更新yum源信息,使用install即可完成二进制包的升级。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
yum clean all
yum makecache
yum install ceph ceph-radosgw

更新服务

软件版本升级以后还要使用下面的命令依次,重启MON,MGR,OSD,最后是RGW

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
systemctl stop ceph-mon@*
systemctl stop ceph-mgr@*
systemctl stop ceph-osd@*
systemctl stop ceph-radosgw@*

修复异常

升级后出现“Legacy BlueStore stats reporting”和“ 3 monitors have not enabled msgr2”,两种类型的异常。 出现“Legacy BlueStore stats reporting” 是因为底层数据结构发生变化导致。 出现“3 monitors have not enabled msgr2” 是因为新版本需要默认开启msgr2的通信模块。

OSD问题修复
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[root@demohost-229 supdev]# ceph -s
  cluster:
    id:     a293ad23-f310-480b-ab2a-5629f2aeef45
    health: HEALTH_WARN
            Legacy BlueStore stats reporting detected on 6 OSD(s)
            3 monitors have not enabled msgr2

  services:
    mon: 3 daemons, quorum demohost-227,demohost-228,demohost-229 (age 4m)
    mgr: demohost-229(active, since 4m), standbys: demohost-227, demohost-228
    osd: 6 osds: 6 up, 6 in
    rgw: 3 daemons active (demohost-227, demohost-228, demohost-229)

  data:
    pools:   7 pools, 184 pgs
    objects: 279.96k objects, 92 GiB
    usage:   295 GiB used, 3.0 TiB / 3.3 TiB avail
    pgs:     184 active+clean

  io:
    client:   55 KiB/s rd, 0 B/s wr, 55 op/s rd, 37 op/s wr

[root@demohost-229 supdev]# ceph -v
ceph version 14.2.4 (75f4de193b3ea58512f204623e6c5a16e6c1e1ba) nautilus (stable)


[root@demohost-227 supdev]# ceph health detail
HEALTH_WARN Legacy BlueStore stats reporting detected on 6 OSD(s); 3 monitors have not enabled msgr2
BLUESTORE_LEGACY_STATFS Legacy BlueStore stats reporting detected on 6 OSD(s)
     osd.0 legacy statfs reporting detected, suggest to run store repair to get consistent statistic reports
     osd.1 legacy statfs reporting detected, suggest to run store repair to get consistent statistic reports
     osd.2 legacy statfs reporting detected, suggest to run store repair to get consistent statistic reports
     osd.3 legacy statfs reporting detected, suggest to run store repair to get consistent statistic reports
     osd.4 legacy statfs reporting detected, suggest to run store repair to get consistent statistic reports
     osd.5 legacy statfs reporting detected, suggest to run store repair to get consistent statistic reports
MON_MSGR2_NOT_ENABLED 3 monitors have not enabled msgr2
    mon.demohost-227 is not bound to a msgr2 port, only v1:172.17.61.227:6789/0
    mon.demohost-228 is not bound to a msgr2 port, only v1:172.17.61.228:6789/0
    mon.demohost-229 is not bound to a msgr2 port, only v1:172.17.61.229:6789/0

先修复OSD相关的异常,流程为:停OSD服务,执行“ceph-bluestore-tool repair”,之后再启动OSD服务,将所有OSD依次全部这样操作一遍即可。以修复OSD.1 为例

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[root@demohost-227 supdev]# systemctl stop ceph-osd@1
[root@demohost-227 supdev]# ls /var/lib/ceph/osd/ceph-1
activate.monmap  block  bluefs  ceph_fsid  fsid  keyring  kv_backend  magic  mkfs_done  osd_key  ready  require_osd_release  type  whoami
[root@demohost-227 supdev]# ceph-bluestore-tool repair --path /var/lib/ceph/osd/ceph-1
2019-12-02 14:41:06.607 7faf98bfcf80 -1 bluestore(/var/lib/ceph/osd/ceph-1) fsck error: legacy statfs record found, removing
2019-12-02 14:41:06.607 7faf98bfcf80 -1 bluestore(/var/lib/ceph/osd/ceph-1) fsck error: missing Pool StatFS record for pool 8
2019-12-02 14:41:06.607 7faf98bfcf80 -1 bluestore(/var/lib/ceph/osd/ceph-1) fsck error: missing Pool StatFS record for pool a
2019-12-02 14:41:06.607 7faf98bfcf80 -1 bluestore(/var/lib/ceph/osd/ceph-1) fsck error: missing Pool StatFS record for pool c
2019-12-02 14:41:06.607 7faf98bfcf80 -1 bluestore(/var/lib/ceph/osd/ceph-1) fsck error: missing Pool StatFS record for pool d
2019-12-02 14:41:06.607 7faf98bfcf80 -1 bluestore(/var/lib/ceph/osd/ceph-1) fsck error: missing Pool StatFS record for pool ffffffffffffffff
repair success

[root@demohost-227 supdev]# systemctl start ceph-osd@1

[root@demohost-227 supdev]# ceph -s
  cluster:
    id:     a293ad23-f310-480b-ab2a-5629f2aeef45
    health: HEALTH_WARN
            Legacy BlueStore stats reporting detected on 5 OSD(s)
            3 monitors have not enabled msgr2

  services:
    mon: 3 daemons, quorum demohost-227,demohost-228,demohost-229 (age 11m)
    mgr: demohost-229(active, since 11m), standbys: demohost-227, demohost-228
    osd: 6 osds: 6 up, 6 in
    rgw: 3 daemons active (demohost-227, demohost-228, demohost-229)

  data:
    pools:   7 pools, 184 pgs
    objects: 279.96k objects, 92 GiB
    usage:   294 GiB used, 3.0 TiB / 3.3 TiB avail
    pgs:     184 active+clean

  io:
    recovery: 367 B/s, 5 objects/s

MGR2问题修复

之后修复mgr2的问题,随便找台机器执行开启命令即可。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[root@demohost-229 supdev]# ceph -s
  cluster:
    id:     a293ad23-f310-480b-ab2a-5629f2aeef45
    health: HEALTH_WARN
            3 monitors have not enabled msgr2

  services:
    mon: 3 daemons, quorum demohost-227,demohost-228,demohost-229 (age 19m)
    mgr: demohost-229(active, since 19m), standbys: demohost-227, demohost-228
    osd: 6 osds: 6 up, 6 in
    rgw: 3 daemons active (demohost-227, demohost-228, demohost-229)

  data:
    pools:   7 pools, 184 pgs
    objects: 279.96k objects, 92 GiB
    usage:   293 GiB used, 3.0 TiB / 3.3 TiB avail
    pgs:     184 active+clean

  io:
    client:   7.1 KiB/s rd, 7 op/s rd, 0 op/s wr
    recovery: 156 B/s, 2 objects/s
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[root@demohost-227 tools]# ceph mon enable-msgr2
[root@demohost-227 tools]# ceph  -s
  cluster:
    id:     a293ad23-f310-480b-ab2a-5629f2aeef45
    health: HEALTH_OK

  services:
    mon: 3 daemons, quorum demohost-227,demohost-228,demohost-229 (age 13s)
    mgr: demohost-229(active, since 22m), standbys: demohost-227, demohost-228
    osd: 6 osds: 6 up, 6 in
    rgw: 3 daemons active (demohost-227, demohost-228, demohost-229)

  data:
    pools:   7 pools, 184 pgs
    objects: 279.96k objects, 92 GiB
    usage:   293 GiB used, 3.0 TiB / 3.3 TiB avail
    pgs:     184 active+clean

  io:
    client:   14 KiB/s rd, 0 B/s wr, 13 op/s rd, 10 op/s wr

总结

升级操作不复杂,但是里面会遇上各种奇葩问题,升级尽量控制在小版本的维度,如果是这种跨大版本,老司机都容易翻车,所以一点要谨慎。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2019-12-02,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 Ceph对象存储方案 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
[喵咪Liunx(7)]Ceph分布式文件共享解决方案
哈喽大家好呀! 这次给大家带来的Liunx软件分享是鼎鼎大名的Ceph分布式文件系统,笔者了解到Ceph也是遇到了一个问题就是在使用Kubeneters的时候在各个容器中都需要使用同一套文件,但是使用NAS盘的方式不管是更新还是读取都要忍受2分钟之久而且还会出现文件占用失败的问题,笔者找了找现有和Kuberneters结合比较好的文件系统才发现Ceph,那么就开始进行Ceph的搭建和使用吧
喵了个咪233
2022/03/24
7280
由OSD class配置引发的PG异常状态修复
ceph版本12.2.8,一个PG卡在remapped状态,但是集群状态是OK的,为了修复这个remapped状态,才有了下面的操作。
用户1260683
2018/10/25
3.3K0
Ceph对象存储集群部署
集群架构 192.168.10.186 ceph1 admin、mon、mgr、osd、rgw 192.168.10.187 ceph2 mon、mgr、osd、rgw 192.168.10.188 ceph3 mon、mgr、osd、rgw 部署 [root@10dot186 ~]# vim /etc/hosts 192.168.10.186 ceph1 192.168.10.187 ceph2 192.168.10.188
院长技术
2020/06/11
7810
Ceph 故障排查笔记 | 万字经验总结
删除当前 osd 的所有数据,并且重新加载 osd,此操作一定要保证有冗余可用的 osd,否则会造成整个 osd 数据损坏。
米开朗基杨
2021/05/11
7.9K0
Ceph Luminous版本DashBoard预览
今天来聊一聊Ceph新版本功能,Ceph会在今年秋季发布一个长期支持稳定版本Luminous(12.x.x),现在已经出RC版了,Luminous版本新增了很多功能,比如新增一个内置的Dashboard、底层的存储引擎的变更、消息方式的改变等等。
DevinGeng
2019/04/09
1.1K0
Ceph Luminous版本DashBoard预览
快速部署Ceph分布式高可用集群
Ceph是一个PB,EB级别的分布式存储系统,可以提供文件存储,对象存储、和块存储,它可靠性高,易扩展,管理简便,其中对象存储和块存储可以和其他云平台集成。一个Ceph集群中有Monitor节点、MDS节点(用于文件存储)、OSD守护进程。
小陈运维
2022/06/15
2.4K0
ceph recovering速度控制
问题背景 集群中剔除了一个osd,没有新加入,进行了一次pg的均衡,做完均衡后集群出现· Degraded data redundancy: 256 pgs undersized,为了保证集群的pg副本数为3,需要新添加一个osd来做pg的均衡 ceph 集群的状态 [root@node1 ~]# ceph -v ceph version 14.2.18 (befbc92f3c11eedd8626487211d200c0b44786d9) nautilus (stable) [root@node1 ~]#
用户4700054
2022/08/17
2.5K0
CEPH检查信息状态信息
[root@node1 ~]# ceph -s cluster: id: 97e5619b-a208-46aa-903b-a69cfd57cdab health: HEALTH_OK services: mon: 3 daemons, quorum node1,node2,node3 mgr: node1(active) osd: 36 osds: 36 up, 36 in data: pools: 4 pools, 896 pgs objects: 22.97 k objects, 88
院长技术
2020/06/13
7730
Rocky8.5 部署 Ceph
陳斯托洛夫斯記
2024/08/07
3760
使用ceph-ansible部署Ceph Octopus
之前用的是 ceph-deploy 部署 ceph 集群,在官网的最新介绍中有如下描述:
tanmx
2021/01/03
4.4K0
centos7搭建ceph集群
ceph需要epel源的包,所以安装的节点都需要yum install epel-release
匿名用户的日记
2021/12/31
1.6K0
使用 docker 快速部署 ceph
系统环境 至少需要三台虚拟机或者物理机,这里使用虚拟机 每台虚拟机至少需要两块硬盘(一块系统盘,一块OSD),本例中有三块硬盘 1. 部署流程 博客使用的markdown解析器不支持流程图使用图片代替
tanmx
2018/07/16
5.5K0
外包技能--Ceph(L版)手动剔除osd与增加osd
Godev
2023/08/02
8320
centos7搭建ceph集群
ceph需要epel源的包,所以安装的节点都需要yum install epel-release
用户1214487
2020/06/19
1.1K0
centos7搭建ceph集群
CentOS 7.9通过ceph-ansible安装ceph集群笔记--外包精通
生产环境建议多网络模式,测试环境可以多网络,也可以单网络模式,需要注意的是的,测试服务器4个磁盘,一个系统盘。2个osd(vdb,vdc),一个日志盘(vdd)
Godev
2023/06/25
2.7K0
查看 ceph 的实时运行状态
[root@node1 ~]# ceph -w cluster: id: 97e5619b-a208-46aa-903b-a69cfd57cdab health: HEALTH_OK services: mon: 3 daemons, quorum node1,node2,node3 mgr: node1(active) osd: 36 osds: 36 up, 36 in data: pools: 4 pools, 896 pgs objects: 22.97 k objects, 88
院长技术
2020/06/13
1.4K0
ceph-mimic版
Ceph使用RADOS提供对象存储,通过librados封装库提供多种存储方式的文件和对象转换。外层通过RGW(Object,有原生的API,而且也兼容Swift和S3的API,适合单客户端使用)、RBD(Block,支持精简配置、快照、克隆,适合多客户端有目录结构)、CephFS(File,Posix接口,支持快照,社会和更新变动少的数据,没有目录结构不能直接打开)将数据写入存储。
yuezhimi
2020/09/30
9320
Ceph-Luminous对ipv6的支持
需求 随着ipv6使用得越来越广,很多网络设施逐步地需要支持ipv6,而ceph作为可大规模部署的分布式存储系统,ipv6的支持是必选的,本文主要介绍ceph over ipv6的场景及其功能使用
院长技术
2020/06/12
8500
Ceph分布式存储 - 学习笔记
一、Ceph简单介绍 OSDs:Ceph的OSD守护进程(OSD)存储数据,处理数据复制,恢复,回填,重新调整,并通过检查其它Ceph OSD守护程序作为一个心跳 向Ceph的监视器报告一些检测信息。Ceph的存储集群需要至少2个OSD守护进程来保持一个 active + clean状态.(Ceph默认制作2个备份,但可以调整它) Monitors:Ceph的监控保持集群状态映射,包括OSD(守护进程)映射,分组(PG)映射,和CRUSH映射。 Ceph 保持一个在Ceph监视器, Ceph OSD 守护进程和 PG的每个状态改变的历史(称之为“epoch”)。 MDS:MDS是Ceph的元数据服务器,代表存储元数据的Ceph文件系统(即Ceph的块设备和Ceph的对象存储不使用MDS)。Ceph的元数据服务器使用POSIX文件系统,用户可以执行基本命令如 ls, find,等,并且不需要在Ceph的存储集群上造成巨大的负载。
洗尽了浮华
2022/03/29
1K0
容器实战|手把手带你部署Ceph集群
部署Ceph之前我们需要对自身机器的环境做初始化。主要涉及到防火墙,主机名等设置。
灵雀云
2021/11/25
4.9K0
容器实战|手把手带你部署Ceph集群
相关推荐
[喵咪Liunx(7)]Ceph分布式文件共享解决方案
更多 >
领券
💥开发者 MCP广场重磅上线!
精选全网热门MCP server,让你的AI更好用 🚀
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验