首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Ceph集群详细部署配置图文讲解(二)

Ceph集群详细部署配置图文讲解(二)

作者头像
Lansonli
修改于 2022-05-20 13:58:54
修改于 2022-05-20 13:58:54
3.4K23
代码可运行
举报
文章被收录于专栏:Lansonli技术博客Lansonli技术博客
运行总次数:3
代码可运行

Ceph集群详细部署配置

一、部署结构

虚拟机创建三台服务器, CENTOS 版本为 7.6 , IP 网段 192.168.116.2/24 。三台主机名称为:

CENTOS7-1: IP 为 192.168.116.141 , 既做管理节点, 又做子节点。

CENTOS7-2: IP 为 192.168.116.142 , 子节点。

CENTOS7-3: IP 为 192.168.116.143 , 子节点

二、系统配置

系统配置工作, 三台节点依次执行:

1、修改主机名称

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[root@CENTOS7-1 ~]# vi /etc/hostname
CENTOS7-1

2、编辑hosts文件

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
192.168.116.141 CENTOS7-1 
192.168.116.142 CENTOS7-2 
192.168.116.143 CENTOS7-3

注意, 这里面的主机名称要和节点名称保持一致, 否则安装的时候会出现问题

3、修改yum源

vi /etc/yum.repos.d/ceph.repo , 为避免网速过慢问题, 这里采用的是清华镜像源:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[ceph] 
name=Ceph packages for $basearch
baseurl=https://mirrors.tuna.tsinghua.edu.cn/ceph/rpm-mimic/el7/x86_64/ 
enabled=1 
gpgcheck=1 
type=rpm-md 
gpgkey=https://download.ceph.com/keys/release.asc
 
[ceph-noarch] 
name=Ceph noarch packages 
# 官方源 
#baseurl=http://download.ceph.com/rpm-mimic/el7/noarch 
# 清华源 
baseurl=https://mirrors.tuna.tsinghua.edu.cn/ceph/rpm-mimic/el7/noarch/ 
enabled=1 
gpgcheck=1 
type=rpm-md 
gpgkey=https://download.ceph.com/keys/release.asc
 
[ceph-source] 
name=Ceph source packages
baseurl=https://mirrors.tuna.tsinghua.edu.cn/ceph/rpm-mimic/el7/SRPMS/ 
enabled=1 
gpgcheck=1 
type=rpm-md 
gpgkey=https://download.ceph.com/keys/release.asc

4、安装ceph与ceph-deploy组件

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
yum update && yum -y install ceph ceph-deploy

安装完成, 如果执行 ceph-deploy 出现 ImportError: No module named pkg_resources

安装 python2-pip :

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
yum install epel-release -y

yum -y install python2-pip

5、安装NTP时间同步工具

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
yum install ntp ntpdate ntp-doc -y

确保时区是正确, 设置开机启动:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
systemctl enable ntpd

并将时间每隔1小时自动校准同步。编辑 vi /etc/rc.d/rc.local 追加:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
/usr/sbin/ntpdate ntp1.aliyun.com > /dev/null 2>&1; /sbin/hwclock -w

配置定时任务, 执行crontab -e 加入:

三、免密码SSH登陆

1、官方建议不用系统内置用户, 创建名为ceph_user用户, 密码也设为ceph_user:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
useradd -d /home/ceph_user -m ceph_user 
passwd ceph_user

2、设置sudo权限

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
echo "ceph_user ALL = (root) NOPASSWD:ALL" | sudo tee
/etc/sudoers.d/ceph_user 
sudo chmod 0440 /etc/sudoers.d/ceph_user

1 、 2 两个步骤依次在三台机器上执行。

接下来在主节点, 继续执行:

3、生成密钥:

切换用户: su ceph_user

执行 ssh-keygen ,一直按默认提示点击生成 RSA 密钥信息。

4、分发密钥至各机器节点

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ssh-copy-id ceph_user@CENTOS7-1 
ssh-copy-id ceph_user@CENTOS7-2 
ssh-copy-id ceph_user@CENTOS7-3

5、修改管理节点上的 ~/.ssh/config 文件, 简化SSH远程连接时的输入信息:

管理节点是会有root和ceph_user多个用户, ssh远程连接默认会以当前用户身份进行登陆, 如果我们是root身份进行远程连接, 还是需要输入密码, 我们想简化, 该怎么处理?

切换root身份

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
su root

修改~/.ssh/config 文件

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
Host CENTOS7-1 
  Hostname CENTOS7-1
  User ceph_user
Host CENTOS7-2 
  Hostname CENTOS7-2
  User ceph_user
Host CENTOS7-3 
  Hostname CENTOS7-3
  User ceph_user

注意修改文件权限, 不能采用777最大权限:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
chmod 600 ~/.ssh/config

进行ssh远程连接时, Host的主机名称是区分大小写的, 所以要注意配置文件的主机名称。

6、开放端口, 非生产环境, 可以直接禁用防火墙:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
systemctl stop firewalld.service 
systemctl disable firewalld.service

7、SELINUX设置

SELinux 设为禁用:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
setenforce 0

永久生效:

编辑 vi /etc/selinux/config 修改:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
SELINUX=disabled

四、集群搭建配置

采用root身份进行安装

1、在管理节点创建集群配置目录,cd /usr/local:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
mkdir ceph-cluster 
cd ceph-cluster

注意: 此目录作为 ceph 操作命令的基准目录, 会存储处理配置信息。

2、创建集群, 包含三台机器节点:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ceph-deploy new CENTOS7-1 CENTOS7-2 CENTOS7-3

创建成功后, 会生一个配置文件。

3、 如果接下来集群的安装配置出现问题, 可以执行以下命令清除, 再重新安装:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ceph-deploy purge CENTOS7-1 CENTOS7-2 CENTOS7-3 
ceph-deploy purgedata CENTOS7-1 CENTOS7-2 CENTOS7-3 
ceph-deploy forgetkeys

将三台节点的mon信息也删除

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
rm -rf /var/run/ceph/

4、 修改配置文件, 有些配置后面需用到:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
vi /usr/local/ceph-cluster/ceph.conf

加入:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[global] 
# 公网网络 
public network = 192.168.88.0/254 
# 设置pool池默认分配数量 默认副本数为3 
osd pool default size = 2 
# 容忍更多的时钟误差 
mon clock drift allowed = 2 
mon clock drift warn backoff = 30 
# 允许删除pool 
mon_allow_pool_delete = true
[mgr]
# 开启WEB仪表盘 mgr modules = dashboard

第一项为副本数, 设为 2 份。

第二项为对外 IP 访问网段,注意根据实际 IP 修改网段。

第三、四项为允许一定时间的漂移误差。

5、执行安装:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ceph-deploy install CENTOS7-1 CENTOS7-2 CENTOS7-3

如果出现错误:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ceph_deploy][ERROR ] RuntimeError: Failed to execute command: ceph --version

可以在各节点上单独进行安装:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
yum -y install ceph 

如果没有仓库文件 ceph.repo , 按上面的步骤手工创建。

6、初始monitor信息:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ceph-deploy mon create-initial ## ceph-deploy --overwrite-conf mon create-initial

执行完成后, 会生成以下文件:

7、同步管理信息:

下发配置文件和管理信息至各节点:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ceph-deploy admin CENTOS7-1 CENTOS7-2 CENTOS7-3

8、安装mgr(管理守护进程), 大于12.x版本需安装, 我们装的是最新版,需执行:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ceph-deploy mgr create CENTOS7-1 CENTOS7-2 CENTOS7-3

9、安装OSD(对象存储设备)

注意: 新版本的 OSD 没有 prepare 与 activate 命令。

这里需要新的硬盘作为 OSD 存储设备, 关闭虚拟机, 增加一块硬盘, 不用格式化。

重启, fdisk -l 查看新磁盘名称:

执行创建OSD命令:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ceph-deploy osd create --data /dev/sdb CENTOS7-1

三台节点都需分别依次执行。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ceph-deploy gatherkeys CENTOS7-1

10、验证节点:

输入 ceph health 或 ceph -s 查看, 出现 HEALTH_OK 代表正常。

通过虚拟机启动, 如果出现错误:

在各节点执行命令, 确保时间同步一致:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ntpdate ntp1.aliyun.com

五、安装管理后台

1、 开启dashboard模块

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ceph mgr module enable dashboard

2、生成签名 

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ceph dashboard create-self-signed-cert

3、创建目录 

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
mkdir mgr-dashboard
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[root@CENTOS7-1 mgr-dashboard]# pwd 
/usr/local/ceph-cluster/mgr-dashboard

4、生成密钥对

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
cd /usr/local/ceph-cluster/mgr-dashboard
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
openssl req -new -nodes -x509 -subj "/O=IT/CN=ceph-mgr-dashboard" -days 3650 -keyout dashboard.key -out dashboard.crt -extensions v3_ca

5、启动dashboard 

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ceph mgr module disable dashboard 
ceph mgr module enable dashboard

6、设置IP与PORT

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ceph config set mgr mgr/dashboard/server_addr 192.168.88.161
ceph config set mgr mgr/dashboard/server_port 18843

7、关闭HTTPS

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ceph config set mgr mgr/dashboard/ssl false

8、查看服务信息 

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[root@CENTOS7-1 mgr-dashboard]# ceph mgr services
{
    "dashboard": "https://node1:8443/"
}

9、 设置管理用户与密码

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ceph dashboard set-login-credentials admin admin

10、访问

六、创建Cephfs

集群创建完后, 默认没有文件系统, 我们创建一个 Cephfs 可以支持对外访问的文件系统。

ceph-deploy --overwrite-conf mds create CENTOS7-1 CENTOS7-2 CENTOS7-3

1、创建两个存储池, 执行两条命令:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ceph osd pool create cephfs_data 128 
ceph osd pool create cephfs_metadata 64

少于 5 个 OSD 可把 pg_num 设置为 128

OSD 数量在 5 到 10 ,可以设置 pg_num 为 512

OSD 数量在 10 到 50 ,可以设置 pg_num 为 4096

OSD 数量大于 50 ,需要计算 pg_num 的值

通过下面命令可以列出当前创建的存储池:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ceph osd lspools

2.、创建fs, 名称为fs_test:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ceph fs new fs_test cephfs_metadata cephfs_data

3、状态查看, 以下信息代表正常:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[root@CENTOS7-1 mgr-dashboard]# ceph fs ls
name: fs_test, metadata pool: cephfs_metadata, data pools: [cephfs_data ]
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[root@CENTOS7-1 ceph-cluster]# ceph mds stat
fs_test-1/1/1 up  {0=CENTOS7-2=up:active}, 2 up:standby

附: 如果创建错误, 需要删除, 执行:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ceph fs rm fs_test --yes-i-really-mean-it 
ceph osd pool delete cephfs_data cephfs_data --yes-i-really-really-mean-it

确保在ceph.conf中开启以下配置:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[mon] mon allow pool delete = true

4、采用fuse挂载

先确定 ceph-fuse 命令能执行, 如果没有, 则安装:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
yum -y install ceph-fuse

5、创建挂载目录

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
mkdir -p /usr/local/cephfs_directory

6、挂载cephfs

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ceph-fuse -k /etc/ceph/ceph.client.admin.keyring -m 192.168.88.161:6789 /usr/local/cephfs_directory

7、查看磁盘挂载信息

/usr/local/cephfs_directory 目录已成功挂载。

七、客户端连接验证(Rados Java)

1、安装好JDK、GIT和MAVEN

2、下载rados java客户端源码

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
git clone https://github.com/ceph/rados-java.git

下载目录位置:

3、执行MAVEN安装, 忽略测试用例:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[root@CENTOS7-1 rados-java]# mvn install -Dmaven.test.skip=true

生成jar包, rados-0.7.0.jar

4、创建软链接, 加入CLASSPATH

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ln -s /usr/local/sources/rados-java/target/rados-0.7.0.jar /opt/jdk1.8.0_301/jre/lib/ext/rados-0.7.0.jar

安装jna

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
yum -y install jna

创建软链接

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ln -s /usr/share/java/jna.jar /opt/jdk1.8.0_301/jre/lib/ext/jna.jar

查看

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[root@CENTOS7-1 target]# ll 
/opt/jdk1.8.0_301/jre/lib/ext/jna.jar lrwxrwxrwx 1 root root /opt/jdk1.8.0_301/jre/lib/ext/jna.jar -> /usr/share/java/jna.jar
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[root@CENTOS7-1 target]# ll 
/opt/jdk1.8.0_301/jre/lib/ext/rados-0.7.0.jar lrwxrwxrwx 1 root root
/opt/jdk1.8.0_301/jre/lib/ext/rados- 0.7.0.jar -> /usr/local/sources/rados-java/target/rados-0.7.0.jar

5、创建JAVA测试类 

CephClient 类,注意, 最新版 0.6 的异常处理包位置已发生变化。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
importcom.ceph.rados.Rados;
importcom.ceph.rados.exceptions.*;
importjava.io.File;
publicclassCephClient{
    publicstaticvoidmain(Stringargs[]){
        try{
            Radoscluster=newRados("admin");
            System.out.println("Createdclusterhandle.");
            Filef=newFile("/etc/ceph/ceph.conf");
            cluster.confReadFile(f);
            System.out.println("Readtheconfigurationfile.");
            cluster.connect();
            System.out.println("Connectedtothecluster.");
        }catch(RadosExceptione){
    System.out.println(e.getMessage()+":"+e.getReturnValue());
    }
  }
}

6、运行验证

需要在 linux 环境下运行,且要在 client 节点。

编译并运行:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[root@CENTOS7-1 sources]# javac CephClient.java 
[root@CENTOS7-1 sources]# java CephClient 
Created cluster handle.
Read the configuration file.
Connected to the cluster.

成功与 ceph 建立连接。

注意:如果 java 和 javac 版本不同,可以使用 rpm -qa |grep java 进行查找, rpm -e --nodeps jdk进行删除,source /etc/profile 进行生效

jdk 的位数为 64 位

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2022/04/10 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
2 条评论
热度
最新
写的很完整,很厉害
写的很完整,很厉害
回复回复点赞举报
66666666666666666666666666666666666666666
66666666666666666666666666666666666666666
回复回复点赞举报
推荐阅读
编辑精选文章
换一批
kubernetes(十九) Ceph存储入门
Ceph是当前非常流行的开源分布式存储系统,具有高扩展性、高性能、高可靠性等优点,同时提供块存储服务(rbd)、对象存储服务(rgw)以及文件系统存储服务(cephfs),Ceph在存储的时候充分利用存储节点的计算能力,在存储每一个数据时都会通过计算得出该数据的位置,尽量的分布均衡。目前也是OpenStack的主流后端存储,随着OpenStack在云计算领域的广泛使用,ceph也变得更加炙手可热。国内目前使用ceph搭建分布式存储系统较为成功的企业有华为,xsky,杉岩数据,中兴,华三,浪潮,中移动等。
alexhuiwang
2020/09/23
4K0
kubernetes(十九) Ceph存储入门
Ceph介绍及部署
ceph是一个分布式存储系统,提供对象存储,块存储,文件存储,Ceph集群至少需要一个ceph monitor和两个OSD守护进程,而运行ceph文件系统客户端时,则必须要有元数据服务器MDS
dogfei
2020/07/31
2.8K0
Ceph分布式存储 - 学习笔记
一、Ceph简单介绍 OSDs:Ceph的OSD守护进程(OSD)存储数据,处理数据复制,恢复,回填,重新调整,并通过检查其它Ceph OSD守护程序作为一个心跳 向Ceph的监视器报告一些检测信息。Ceph的存储集群需要至少2个OSD守护进程来保持一个 active + clean状态.(Ceph默认制作2个备份,但可以调整它) Monitors:Ceph的监控保持集群状态映射,包括OSD(守护进程)映射,分组(PG)映射,和CRUSH映射。 Ceph 保持一个在Ceph监视器, Ceph OSD 守护进程和 PG的每个状态改变的历史(称之为“epoch”)。 MDS:MDS是Ceph的元数据服务器,代表存储元数据的Ceph文件系统(即Ceph的块设备和Ceph的对象存储不使用MDS)。Ceph的元数据服务器使用POSIX文件系统,用户可以执行基本命令如 ls, find,等,并且不需要在Ceph的存储集群上造成巨大的负载。
洗尽了浮华
2022/03/29
1.1K0
每天10分钟玩转Ceph(一)让Ceph集群运行起来
要学习使用Ceph,首先需要有一个Ceph集群,本文通过ceph-deploy一个自动化部署Ceph的工具部署一个Ceph集群,掌握Ceph集群部署的方法。
HappyLau谈云计算
2020/03/02
6K0
实用的Ceph分布式集群部署指南
这几天都在学习搭建Ceph集群,这真是一部心酸的血泪史。下面我就将我的安装过程以及踩过坑,一五一十的陈述出来。
码农飞哥
2021/08/18
9880
2-1 分布式文件存储系统Ceph
 Ceph是一个统一的分布式存储系统,设计初衷是提供较好的性能、可靠性和可扩展性。
用户4919348
2021/01/14
2.6K0
2-1 分布式文件存储系统Ceph
Ceph对象存储集群部署
集群架构 192.168.10.186 ceph1 admin、mon、mgr、osd、rgw 192.168.10.187 ceph2 mon、mgr、osd、rgw 192.168.10.188 ceph3 mon、mgr、osd、rgw 部署 [root@10dot186 ~]# vim /etc/hosts 192.168.10.186 ceph1 192.168.10.187 ceph2 192.168.10.188
院长技术
2020/06/11
8150
ceph集群搭建
环境: 10.200.51.4 admin、osd、mon 作为管理和监控节点 10.200.51.9 osd、mds 10.200.51.10 osd、mds 10.200.51.113~client 节点
cuijianzhe
2022/06/14
6550
ceph集群搭建
初试 Centos7 上 Ceph 存储集群搭建
本文介绍了如何使用 Ceph 进行分布式存储和共享,包括 Ceph 集群的安装、配置、部署和管理,以及 Ceph 的对象存储、块设备和文件系统的使用。
哎_小羊
2018/01/02
4.2K0
初试 Centos7 上 Ceph 存储集群搭建
容器实战|手把手带你部署Ceph集群
部署Ceph之前我们需要对自身机器的环境做初始化。主要涉及到防火墙,主机名等设置。
灵雀云
2021/11/25
5.1K0
容器实战|手把手带你部署Ceph集群
ceph分布式集群文件存储的简单搭建
环境 node1:192.168.222.246 node2:192.168.222.249 node3:192.168.222.211 client:192.168.222.141 写入每个机器的/etc/hosts文件 推荐在三节点的任意一台做全部机器的ssh免密,这里我在node1上完成。 一、环境准备 给每个node节点加上一块硬盘,不能是逻辑卷,这里我的三个设备的都是/dev/sdb 修改主机名,必须与hosts文件一致 systemctl disable --now
Tianlin_Zz
2022/11/01
6870
centos7搭建ceph集群
ceph需要epel源的包,所以安装的节点都需要yum install epel-release
用户1214487
2020/06/19
1.1K0
centos7搭建ceph集群
搭建Ceph分布式存储
[root@dlp ~]# ls /etc/yum.repos.d/  ##必须保证有默认的官网源,结合epel源和网易的ceph源,才可以进行安装;
星哥玩云
2022/07/28
1.4K0
搭建Ceph分布式存储
基于cephfs搭建高可用分布式存储并mount到本地
原文:https://www.fullstackmemo.com/2018/10/11/cephfs-ha-mount-storage/
sunsky
2020/08/20
2.9K0
基于cephfs搭建高可用分布式存储并mount到本地
Ceph简单搭建
Ceph基础介绍 ​ Ceph是一个可靠地、自动重均衡、自动恢复的分布式存储系统,根据场景划分可以将Ceph分为三大块,分别是对象存储、块设备存储和文件系统服务。在虚拟化领域里,比较常用到的是Ceph的块设备存储,比如在OpenStack项目里,Ceph的块设备存储可以对接OpenStack的cinder后端存储、Glance的镜像存储和虚拟机的数据存储,比较直观的是Ceph集群可以提供一个raw格式的块存储来作为虚拟机实例的硬盘。
院长技术
2020/06/11
1.2K0
002.Ceph安装部署
Ceph Monitors之间默认使用6789端口通信,OSD之间默认用6800:7300范围内的端口通信。Ceph OSD能利用多个网络连接进行与客户端、monitors、其他OSD间的复制和心跳的通信。若需要开启防火墙则必须同时放通相应规则,具体操作见:http://docs.ceph.org.cn/rados/configuration/network-config-ref/
木二
2019/06/26
2.2K0
002.Ceph安装部署
Rocky8.5 部署 Ceph
陳斯托洛夫斯記
2024/08/07
4700
安装Ceph集群(二)
注 意: 版本更新非常快,有问题要看官方文档 官方文档: http://docs.ceph.com 准备环境 系统版本:centos7.4 x86_64 server 硬件配置:5台vm,1核1G内存,每台node角色的机器至少挂载1块不低于5个G的空闲盘为osd存储 ​ 主机名 ip role admin 192.168.153.130 admin--安
用户8639654
2021/08/18
3110
005.Ceph文件系统基础使用
Ceph:元数据服务器( MDS ),为 Ceph 文件系统存储元数据。元数据服务器使得POSIX 文件系统的用户们,可以在不对 Ceph 存储集群造成负担的前提下,执行诸如 ls、find 等基本命令。
木二
2019/07/01
6330
linux ceph原理及搭建
Ceph是一个可靠地、自动重均衡、自动恢复的分布式存储系统,根据场景划分可以将Ceph分为三大块,分别是对象存储、块设备存储和文件系统服务。在虚拟化领域里,比较常用到的是Ceph的块设备存储,比如在OpenStack项目里,Ceph的块设备存储可以对接OpenStack的cinder后端存储、Glance的镜像存储和虚拟机的数据存储,比较直观的是Ceph集群可以提供一个raw格式的块存储来作为虚拟机实例的硬盘。
葫芦
2019/06/20
3.8K0
相关推荐
kubernetes(十九) Ceph存储入门
更多 >
交个朋友
加入HAI高性能应用服务器交流群
探索HAI应用新境界 共享实践心得
加入[游戏服务器] 腾讯云官方交流站
游戏服运维小技巧 常见问题齐排查
加入架构与运维学习入门群
系统架构设计入门 运维体系构建指南
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验