create secret generic ceph-secret --type="kubernetes.io/rbd" \ --from-literal=key=AQCBrJ9eV/U5NBAAoDlM4gV3a...kubernetes.io/rbd 1 91s 6、在 default 命名空间创建pvc用于访问ceph的 secret kubectl create...secret generic ceph-user-secret --type="kubernetes.io/rbd" \ --from-literal=key=AQCZ96BeUgPkDhAAhxbWarZh9kTx2QbFCDM...kubernetes.io/rbd 1 114s 3、配置StorageClass # vim storageclass-ceph-rdb.yaml.../kubernetes/kubernetes-dynamic-pvc-e957596e-a969-11ea-8966-cec7bd638523 85G 0 85G 0% /usr/share
最近我在kubernetes中使用了ceph的rbd及cephfs存储卷,遇到了一些问题,并逐一解决了,在这里记录一下。...查阅kubernetes的代码后,发现kubernetes是调用rbd info及rbd resize等外部命令完成rbd存储卷的扩容的: https://github.com/kubernetes/kubernetes...https://github.com/kubernetes-incubator/external-storage/blob/master/ceph/cephfs/cephfs-provisioner.go...而我们的环境中内核明显没有这么高,而kubernetes的代码里会根据是否找得到ceph-fuse命令决定是否使用用户态挂载。...最后一招是一劳永逸的,修改kubernetes的代码,使用 systemd-run 来执行 ceph-fuse命令,这样重启kubelet后,这些ceph-fuse用户态进程不会随着kubelet进程的退出而退出
Kubernetes本身对于什么类别代表是不言而喻的。 这个概念有时在其他存储系统中称为“配置文件” POD动态供给 动态供给主要是能够自动帮你创建pv,需要多大的空间就创建多大的pv。...EOF $ yum -y install ceph-common 参考地址:https://github.com/kubernetes-retired/external-storage/tree/master...namespace: kube-system type: "kubernetes.io/rbd" data: # ceph auth get-key client.admin | base64...namespace: kube-system type: "kubernetes.io/rbd" data: # ceph auth add client.kube mon 'allow r'...: v1 kind: Secret metadata: name: ceph-secret-admin namespace: cephfs type: "kubernetes.io/rbd" data
1、安装: yum -y install ceph-common ceph --version 2、将ceph的配置文件ceph.comf放在所有节点的/etc/ceph目录下: scp ceph.conf...:/etc/ceph 3、将caph集群的ceph.client.admin.keyring文件放在k8s控制节点的/etc/ceph目录: scp ceph.client.admin.keyring...Secret metadata: name: ceph-secret type: "kubernetes.io/rbd" data: key: QVFDTTlXOWFOMk9IR3hBQXZyUjFjdGJDSFpoZUtmckY0N2tZOUE9PQ...******** apiVersion: storage.k8s.io/v1 kind: StorageClass metadata: name: ceph-web provisioner: kubernetes.io...: name: rabbitmq-run annotations: volume.beta.kubernetes.io/storage-class: "ceph-web"
介绍 环境、软件准备 单节点使用 Ceph RBD Kubernetes PV & PVC 方式使用 Ceph RBD 测试单节点以及多节点使用 Ceph RBD 1、Kubernetes PersistentVolumes...release 7.4.1708 (Core) Ceph:jewel-10.2.10 Kubernetes:v1.6.2 Docker:v1.12.6 注意:这里我们着重描述一下 Kubernetes...Kubernetes 集群 和 初试 Centos7 上 Ceph 存储集群搭建,这里就不在详细讲解了。...k8s 集群单节点使用 Ceph RBD,我们可以使用 Kubernetes Examples Github 官方示例代码,稍加修改即可。...参考资料 Ceph 官网文档 Kubernetes Persistent Volumes 官网文档 Kubernetes Examples Volumes RBD Github 示例
由于 Kubernetes 本身的松耦合设计,绝大多数存储项目,比如 Ceph、GlusterFS、NFS 等,都可以为 Kubernetes 提供持久化存储能力。...Rook 使用 Kubernetes 原语使 Ceph 存储系统能够在 Kubernetes 上运行。...下图说明了 Ceph Rook 如何与 Kubernetes 集成: 随着 Rook 在 Kubernetes 集群中运行,Kubernetes 应用程序可以挂载由 Rook 管理的块设备和文件系统,...这些 agent 是在每个 Kubernetes 节点上部署的 pod。...:根据 cluster.yaml 里的配置启动,默认在所有的可用节点上启动 上述 Ceph 组件对应 kubernetes 的 kind 是 deployment: [centos@k8s-master
由于 Kubernetes 本身的松耦合设计,绝大多数存储项目,比如 Ceph、GlusterFS、NFS 等,都可以为 Kubernetes 提供持久化存储能力。...二、Rook 介绍 1、简介 Rook 项目是一个基于 Ceph 的 Kubernetes 存储插件(后期也在加入对更多存储的支持)。...执行脚本: cd rook/cluster/examples/kubernetes/ceph kubectl create -f common.yaml kubectl create -f operator.yaml...Kubernetes 项目上创建的所有 Pod 就能够通过 Persistent Volume(PV)和 Persistent Volume Claim(PVC)的方式,在容器里挂载由 Ceph 提供的数据卷了...cd rook/cluster/examples/kubernetes/ceph/csi/rbd kubectl create -f csi/rbd/storageclass.yaml 解读:如下配置文件中会创建一个名为
Ruby III 我想在新的Kubernetes集群上安装Prometheus和Grafana,但为了使这些软件包能够工作,他们需要一些地方来存储持久数据。...当我在Seagate担任云架构师时,我已经对Ceph进行了性能和规模测试,并且在过去的一年里玩过Rook,所以我决定安装Rook+Ceph,并将其用于Kubernetes集群的数据存储。...在Ceph集群上,您还可以找到Ceph MON(监控)守护程序,它们确保Ceph集群保持高可用性。 Rook充当Ceph在Kubernetes的业务流程层,将OSD和MON流程部署为POD副本集。...cd cluster/examples/kubernetes/ceph kubectl create -f operator.yaml kubectl create -f cluster.yaml...":{"storageclass.kubernetes.io/is-default-class":"true"}}}' 这会更新rook-ceph-block存储类,并使其成为群集上存储的默认值。
本文详细介绍了如何在 Kubernetes 集群中部署 ceph-csi(v3.1.0),并使用 RBD 作为持久化存储。 需要的环境参考下图: ?...新建 Ceph Pool 创建一个新的 ceph 存储池(pool) 给 Kubernetes 使用: $ ceph osd pool create kubernetes pool ' kubernetes...新建用户 为 Kubernetes 和 ceph-csi 单独创建一个新用户: $ ceph auth get-or-create client.kubernetes mon 'profile rbd'...== 后面的配置需要用到这里的 key,如果忘了可以通过以下命令来获取: $ ceph auth get client.kubernetes exported keyring for client.kubernetes...进入 ceph-csi 的 deploy/rbd/kubernetes 目录: $ cd deploy/rbd/kubernetes $ ls -l ./ total 36 -rw-r--r-- 1
前言 Kubernetes 坑不坑?坑!Ceph 坑不坑?坑!他俩凑到一起呢?巨坑!...之前在 Kubernetes 集群中部署了高可用 Harbor 镜像仓库,并使用 Ceph RBD 提供持久化存储。...→ rbd status kubernetes/csi-vol-bf0dc641-4a5a-11eb-988c-6ab597a1411c Watchers: watcher=172.16.7.1:0/...fb4e5e10f064 bash [root@k8s01 /]# rbd showmapped|grep csi-vol-bf0dc641-4a5a-11eb-988c-6ab597a1411c 4 kubernetes...for volume "pvc-ec045b5e-2471-469d-9a1b-6e7db0e938b3" : rpc error: code = Internal desc = rbd image kubernetes
Ceph 是什么?...我们今天要讲的 Ceph 也是其中的一种。...然后 SUSE 公司开始将 Ceph 用于其企业级存储产品,这标志着 Ceph 开始商业化。 完善和社区增长(2014-2017):Ceph 在此时已经成为大规模存储领域主要的开源解决方案之一。...与此同时,Ceph 社区也不断扩大,包括了来自多个公司和组织的贡献者。Ceph 还加入了 OpenStack 等重要的开源项目,使得 Ceph 在云计算领域得到了广泛应用。...Ceph 可以在普通硬件上运行,并且可以扩展到数百个节点。使用 CRUSH 算法来实现 数据分布和数据恢复,这使得 Ceph 具有高度可扩展性和高可用性。
为了实现所有这些功能,Rook 需要依赖底层的容器编排平台,例如 kubernetes、CoreOS 等。...Ceph 存储集群具备了企业级存储的能力,它通过组织大量节点,节点之间靠相互通讯来复制数据、并动态地重分布数据,从而达到高可用分布式存储功能 使用 Rook 可以轻松实现在 Kubernetes 上部署并运行...Ceph 存储系统,并且提供 Dashboard 供用户查看存储系统信息,Rook 跟 Kubernetes 集成关系示意图如下: ?...3、Kubernetes HA 集群搭建 Kubernetes HA 集群搭建,主要包含 Etcd HA 和 Master HA。...$ git clone https://github.com/rook/rook.git $ cd rook/cluster/examples/kubernetes/ceph $ kubectl create
、Ceph 2、环境、软件准备 3、Kubernetes HA 集群搭建 4、部署 Rook Operator 5、配置 Rook Dashboard 6、部署 Rook toolbox 并测试 7、部署...Ceph 存储集群具备了企业级存储的能力,它通过组织大量节点,节点之间靠相互通讯来复制数据、并动态地重分布数据,从而达到高可用分布式存储功能 使用 Rook 可以轻松实现在 Kubernetes 上部署并运行...Ceph 存储系统,并且提供 Dashboard 供用户查看存储系统信息,Rook 跟 Kubernetes 集成关系示意图如下: ?...3、Kubernetes HA 集群搭建 Kubernetes HA 集群搭建,主要包含 Etcd HA 和 Master HA。...$ git clone https://github.com/rook/rook.git $ cd rook/cluster/examples/kubernetes/ceph $ kubectl create
https://ralph.blog.imixs.com/2020/02/28/howto-install-ceph-on-centos-7/ 在 /etc/yum.repos.d/ 创建 Ceph...[ceph] name=Ceph packages for $basearch baseurl=https://download.ceph.com/rpm-nautilus/el7/$basearch...enabled=1 priority=2 gpgcheck=1 gpgkey=https://download.ceph.com/keys/release.asc [ceph-noarch] name...gpgcheck=1 gpgkey=https://download.ceph.com/keys/release.asc [ceph-source] name=Ceph source packages...://download.ceph.com/keys/release.asc 然后直接安装就好了 yum install ceph。
ceph后遇到麻烦可以使用以下命令进行清除包和配置 #ceph-deploy purge ceph1 ceph2 ceph3 #ceph-deploy purgedata ceph1 ceph2 ceph3...#ceph-deploy forgetkeys 初始化,创建配置文件 cd ~/ceph-cluster ceph-deploy new ceph1 ceph2 ceph3 在生成的ceph.conf...中加入(写入[global] 段下) osd pool default size = 2 安装ceph ceph-deploy install cephadmin ceph1 ceph2 ceph3 配置初始...monitors ceph-deploy mon create-initial 新建osd 分别在ceph1,ceph2,ceph3节点上创建osd1,osd2,osd3目录 ssh ceph1 mkdir...osd2 ceph3:/var/local/osd3 ceph-deploy osd activate ceph1:/var/local/osd1 ceph2:/var/local/osd2 ceph3
Ceph的监控有很多啊,calamari或inkscope等,我开始尝试安装这些的时候,都失败了,后来Ceph-dash走入了我的眼帘,Ceph-dash根据官方描述,我个人觉得是最简单安装的了,但是安装过程中出现的不好使用的情况...版本:0.80.7 进入正题: 首先下载ceph-dash,如果不好用,就到 https://github.com/Crapworks/ceph-dash下载 下载完毕后,按照官网给的提示安装,步骤如下...clone this repository place it on one of your ceph monitor nodes run ceph-dash.py point your browser...to http://ceph-monitor:5000/ enjoy!...因为ceph-dash是Python写的,我没有成功是缺少了ceph的一些额外的软件包:Flask,安装完成Flask之后,再运行ceph-dash应该就OK了,如果你还是不OK,那么我也没办法了,因为我就遇到的是这个错误
1、 image.png image.png image.png image.png image.png image.png image.png ...
1 image.png image.png
运维 Ceph 集群的朋友应该会感受到,如果经常扩容,上了 OSD 之后,又还需要去计算一遍 pg 的个数,然后再设置一次,还是比较麻烦的,而且公式本身比较简单,为什么不能让 pg 打到阈值之后自动分裂扩展呢...ceph osd pool autoscale-status ceph osd pool set default.rgw.buckets.index pg_autoscale_mode on 开启之后会发现
领取专属 10元无门槛券
手把手带您无忧上云