首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

ceph创建osd失败[ceph_deploy][错误] GenericError:无法创建%1个osd

ceph创建osd失败ceph_deploy GenericError:无法创建%1个osd

这个错误提示表明在使用ceph_deploy命令创建osd时遇到了问题。下面是对该错误的解释和解决方法:

  1. 错误解释:
    • GenericError:无法创建%1个osd
    • 这个错误表示ceph_deploy无法成功创建指定数量的osd。
  2. 解决方法:
    • 确保ceph集群的配置正确无误,包括网络配置、ceph.conf配置文件等。
    • 检查ceph集群的状态,确保集群正常运行。
    • 检查硬盘或存储设备是否可用,并且具有足够的空间来创建osd。
    • 检查ceph_deploy命令的参数是否正确,包括osd的数量和位置等。
    • 检查ceph集群的权限配置,确保ceph_deploy具有足够的权限来创建osd。
    • 检查日志文件,查找更详细的错误信息,以便进一步排查问题。
  3. 相关概念:
    • Ceph:Ceph是一个开源的分布式存储系统,提供高性能、高可靠性和可扩展性的存储解决方案。
    • OSD(Object Storage Daemon):OSD是Ceph中的一个重要组件,负责存储和管理数据。
    • ceph_deploy:ceph_deploy是一个用于部署和管理Ceph集群的命令行工具。
  4. 应用场景:
    • Ceph适用于需要高性能、高可靠性和可扩展性的存储场景,如云计算、大数据分析、容器化应用等。
  5. 推荐的腾讯云相关产品:

请注意,以上推荐的腾讯云产品仅供参考,具体选择应根据实际需求和情况进行。

页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

ceph 指定OSD创建pool

sata盘的存储空间浪费和整个ceph集群的性能浪费,其实我们可以改变ceph的默认存储规则,来使那些io要求较高的数据存储在由ssd的osd组成的存储池上,将备份数据或者时效性要求不高的数据存储在由sata...编辑crushmapdump文件,并在root default配置之后添加以下部分,分别创建ssd和sata两个bucket,将osd [0,2,4]作为ssd bucket,osd[1,3,5...} 创建crush rule crush map包含crush rule的概念。...添加下列参数到ceph.conf配置文件中,防止下次重启时crush恢复回默认配置 osd_crush_update_on_start=false 将crushmap映射到ceph集群后,查看osd...tree分布,这里由于我是虚拟机,所以所有的磁盘都是别hdd,这点请忽略 创建并验证ssd-pool ceph osd pool create ssd-pool 8 8 查看crush_rule为

75420
  • “网红架构师”解决你的Ceph 运维难题-Part2

    如果在那四个位置下面无法找到秘钥文件,就会报上面的unable to find a keyring这样的错误,解决方法后面再说。...如果认证失败,可以前往部署目录授权该节点。 Q14. ceph -s 卡住了 简单介绍下ceph -s的流程: 每当你敲下一个Ceph指令时,相当于建立了一个Ceph的客户端进程去连接集群。...,这个用户可以用于创建OSD(or MDS or RGW)用户。...exists with different content; use --overwrite-conf to overwrite [ceph_deploy][ERROR ] GenericError:...CRUSH在default下无法找到OSD,所以效果就和没有创建OSD一样,再解释就过于深入了,这里只简单介绍下解决方法: 将部署目录里的ceph.conf的osd_crush_update_on_start

    3.7K41

    “网红架构师”解决你的Ceph 运维难题-Part1

    环境预准备 绝大多数MON创建失败都是由于防火墙没有关导致的,亦或是SeLinux没关闭导致的。...⑤ Ceph-deploy怎么部署集群? 我们暂且把部署目录所在的节点叫做部署节点。Ceph-deploy通过SSH到各个节点,然后再在各个节点执行本机的Ceph指令来创建MON或者OSD等。...⑥Ceph-deploy部署的日志在哪里? 就在部署目录下面的ceph-deploy-ceph.log文件,部署过程中产生的所有的日志都会保存在里面,比如你大半年前敲的创建OSD的指令。...调用auth get-or-create方法创建(如果不存在)或者拉取(已经存在)MON节点上的以下几个keyring到部署目录中: ceph.bootstrap-mds.keyring ceph.bootstrap-osd.keyring...搭好了一台虚拟机后,直接克隆了两台,没有修改主机名,导致socket文件路径名识别错误,报了异常,不过这很少发生。

    2.2K30

    Ubuntu CEPH快速安装

    修改https为http sed -i -e "28s/https/http/g" /usr/lib/python2.7/dist-packages/ceph_deploy/hosts/debian...安装 Ceph 到所有节点 ceph-deploy install $INST 部署监控节点 ceph-deploy mon create-initial 仔细观察输出内容,请确保没有error错误!...ceph-$MDS" ssh $MDS "chown -R ceph:ceph /var/lib/ceph" 创建POOL 通常在创建pool之前,需要覆盖默认的pg_num,官方推荐: 若少于5个OSD...ceph osd lspools echo "创建Cephfs" >> /opt/ceph_install.log # 创建Cephfs ssh $MDS ceph fs new cephfs fs_db_metadata...增加 OSD 到集群 激活 OSD节点 部署管理密钥到所有关联节点 查看验证秘钥 创建POOL 创建Cephfs 部署MDS 挂载需要的验证秘钥 开始挂载 挂载完成 以下文章,有兴趣的,可以看一下!

    4.3K30

    初试 Centos7 上 Ceph 存储集群搭建

    # 创建执行目录 $ mkdir ~/ceph-cluster && cd ~/ceph-cluster # 创建集群 $ ceph-deploy new admin [ceph_deploy.conf...exists with different content; use --overwrite-conf to overwrite [ceph_deploy][ERROR ] GenericError:...接下来需要创建 OSD 了,OSD 是最终数据存储的地方,这里我们准备了两个 OSD 节点,分别为 osd.0 和 osd.1。...官方建议为 OSD 及其日志使用独立硬盘或分区作为存储空间,不过本机虚拟机上不具备条件,但是我们可以在虚拟机本地磁盘上创建目录,来作为 OSD 的存储空间。...时会报权限错误。 接下来,我们需要 ceph-deploy 节点执行 prepare OSD 操作,目的是分别在各个 OSD 节点上创建一些后边激活 OSD 需要的信息。

    3.9K60

    Ceph组件的状态

    OSD OSD 状态表 ? 常见问题 1.硬盘失败。可以通过系统日志或SMART活动确认。有些有缺陷的硬盘因为密集的有时限的错误修复活动变的很慢。 2.网络连接问题。...创建osd a. ceph osd create #会自动生成uuid和osd-number b. ssh {new_osd_host} c. sudo mkdir /var/lib/ceph/osd...创建日志链接 ln -s /dev/disk/by-partuuid/{uuid} /var/lib/ceph/osd/ceph-{osd-number}/journal # 注意别把使用中的分区给绑定错了...创建日志 ceph-osd -i {osd-number} --mkjournal 7....这种情况下,到这些对象的IO将被阻塞,集群希望失败OSD快速地回来。这时假设返回一个IO错误给用户是适当的。 修复建议: 6.启动停止的osd 7.如果还无法恢复,你可能只有放弃丢失的对象。

    1.3K20

    ceph分布式存储-常见 PG 故障处理

    常见 PG 故障处理 3.1 PG 无法达到 CLEAN 状态 创建一个新集群后,PG 的状态一直处于 active , active + remapped 或 active + degraded 状态..., 而无法达到 active + clean 状态 ,那很可能是你的配置有问题。...此时,在开始创建 monitor 和 OSD 之前,你需要把 Ceph 配置文件中的 osd crush chooseleaf type 选项从默认值 1 (表示 host 或 node)修改为 0 (...例如,集群里的一个 ceph-osd 停止且被剔出集群,然后集群完全恢复了;后来一系列的失败导致了未找到的对象,它也不会觉得早已死亡的 ceph-osd 上仍可能包含这些对象。...试着创建个新存储池,设置 PG 数量是 OSD 数量的若干倍。更详细的信息可以参考 Ceph 官方文档 —— Placement Groups 。

    3.4K30
    领券