Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Ceph 在 Windows平台下的支持

Ceph 在 Windows平台下的支持

作者头像
用户1260683
发布于 2021-07-20 02:10:32
发布于 2021-07-20 02:10:32
3K1
举报

背景信息

重点

  • 只面向Windows Server环境,桌面环境的用户就不要打算盘了(虽然可以用windows 10的dev版本)
  • 原生的ceph-iSCSI接入方式存在性能瓶颈。需要借助统一的网关入口,无法和OSD直接通信
  • SUSE已经弃坑ceph,这应该是他们为开源ceph干的最后一票。

RBD部分

整体构架来看还是比较简单,用户态还是基于librdb和librados,内核态通过实现WNDB.sys驱动,来实现块设备的远程映射。

rbd-wnbd提供命令行工具,基本和之前rbd在linux下面的操作方式类似,同时支持通过windows service进行服务启动管理。

WNBD基于windows内核驱动,支持基于TCP/IP传输的标准NBD协议,可以实现和Linux NBD服务的兼容,同时也提高更高速率的本地用户和内核通道模式。

CephFS部分

基于dokany开源项目,实现了一个在Windows下的用户态FUSE

https://github.com/dokan-dev/dokany

安装支持

已经封装好对应的MSI安装包,支持自动批量安装。目前最新的支持ceph 16.0.0版本。同时支持自己编译生成对应的打包文件, https://github.com/cloudbase/ceph-windows-installer

hyper-V支持

支持通过RBD启动hyper-V虚拟机,这个功能可能会比较实用,相当于kvm+RBD之外的一个新的选择。

关于性能

对比ubuntu 20,Windows下面的rbd或者是cephfs性能都要高出不少,特别是WS2019,感觉就像打了鸡血。

虚拟机场景下面依然Windows要压Ubuntu几个身位。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2021-06-30,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 Ceph对象存储方案 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
1 条评论
热度
最新
前辈,请教下,不太能理解rbd-wnbd的架构图,我理解rbd-wnbd以及librbd.dll等与wnbd是相互独立的两个组件,还是说rbd驱动对应用层暴露需要wnbd的里面的相关功能?
前辈,请教下,不太能理解rbd-wnbd的架构图,我理解rbd-wnbd以及librbd.dll等与wnbd是相互独立的两个组件,还是说rbd驱动对应用层暴露需要wnbd的里面的相关功能?
回复回复点赞举报
推荐阅读
编辑精选文章
换一批
携程网的Ceph实践之路
今天分享的内容分为两部分,前面一部分为携程网Ceph的具体实践讲解,后面一部分为携程工程师在Ceph中国社区针对Ceph应用的一系列问答
用户1257215
2018/09/26
3.5K0
Ceph:关于Ceph 集群如何访问的一些笔记
对每个人而言,真正的职责只有一个:找到自我。然后在心中坚守其一生,全心全意,永不停息。所有其它的路都是不完整的,是人的逃避方式,是对大众理想的懦弱回归,是随波逐流,是对内心的恐惧 ——赫尔曼·黑塞《德米安》
山河已无恙
2023/08/21
6160
Ceph:关于Ceph 集群如何访问的一些笔记
zhangdd谈ceph(一)初识ceph
最近在研究ceph分布式存储,刚开始接触时感觉很混乱,无从下手的感觉。于是根据以往经验,先网上看各种资料,一个字 感觉乱,各种配置 各种环境 各种bug 各种坑,没办法了 买书从头开始,开始买了ceph中国社区的《ceph分布式存储实战》,如果你是新手刚接触的话,不要迟疑买了吧。然后通读了一遍,感觉稍微有了点头绪,于是按照套路,本地装虚拟机,经典三节点先上测试环境跑一遍看看,心里有点底,最后都捋顺了,基本的配置也有点明白了,做规划,生产环境与测试环境不同,需要考虑各种因素,只有全方位考虑好了,才能开始正式部署。
zhangdd
2018/08/01
8110
zhangdd谈ceph(一)初识ceph
ceph-mimic版
Ceph使用RADOS提供对象存储,通过librados封装库提供多种存储方式的文件和对象转换。外层通过RGW(Object,有原生的API,而且也兼容Swift和S3的API,适合单客户端使用)、RBD(Block,支持精简配置、快照、克隆,适合多客户端有目录结构)、CephFS(File,Posix接口,支持快照,社会和更新变动少的数据,没有目录结构不能直接打开)将数据写入存储。
yuezhimi
2020/09/30
9320
Ceph理解
- 图虽然很复杂,但如果理解了几个基本操作的含义就很好读下来了,这里是三个操作的伪代码,take和emit很好理解,select主要是遍历当前bucket,如果出现重复、失败或者超载就跳过,其中稍微复杂的“first n”部分是一旦遇到失败,第一种情况是直接使用多备份,第二种情况是使用erasing code基本可以忽略。看着下面的图就更好理解具体的算法了
ZHaos
2019/02/27
2.4K0
001.Ceph简介概述
Red Hat Ceph是一个分布式的数据对象存储,系统设计旨在性能、可靠性和可扩展性上能够提供优秀的存储服务。分布式对象存储是存储的未来,因为它们适应非结构化数据,并且客户端可以同时使用当前及传统的对象接口进行数据存取。例如:
木二
2019/07/26
9640
初试 Ceph 存储之块设备、文件系统、对象存储
哎_小羊
2018/01/02
6.6K0
初试 Ceph 存储之块设备、文件系统、对象存储
ceph工作原理和安装
一、概述 Ceph是一个分布式存储系统,诞生于2004年,最早致力于开发下一代高性能分布式文件系统的项目。随着云计算的发展,ceph乘上了OpenStack的春风,进而成为了开源社区受关注较高的项目之一。 Ceph有以下优势: 1. CRUSH算法 Crush算法是ceph的两大创新之一,简单来说,ceph摒弃了传统的集中式存储元数据寻址的方案,转而使用CRUSH算法完成数据的寻址操作。CRUSH在一致性哈希基础上很好的考虑了容灾域的隔离,能够实现各类负载的副本放置规则,例如跨机房、机架感知等。Crush算
小小科
2018/05/03
2.3K1
ceph工作原理和安装
Ceph CookBook
原因:2017年5月4日 星期四 理解Ceph。 说明:阅读书籍。 官方文档:http://docs.ceph.com/docs/master/rbd/rbd-openstack/ 块存储、文件储存、对象存储:http://limu713.blog.163.com/blog/static/15086904201222024847744/ 可靠性、低成本、可扩展 SDS(软件定义存储-softwate defined storage) SDS可以降低存储基础设施的TCO(Total Cost of O
ZHaos
2019/02/27
1.6K0
SDNLAB技术分享(十七):Ceph在云英的实践
大家好,我是云英负责存储的研发工程师,杨冠军,很高兴今天能在这里跟大家一起讨论分享下Ceph和Ceph在云英的实践。 首先我先介绍下,Ceph是什么,我们为什么选择Ceph? Ceph是最近开源系统中很火的一个项目,基于Sage Weil的一片博士论文发展而来的一个分布式文件系统,可提供PB级,动态可扩展,数据安全可靠的存储服务。Ceph提供分布式存储服务包括:块存储RBD,对象存储RADOSGW和CephFS三种,基本覆盖了绝大部分企业对存储的需求,所以越来越多企业加入到使用Ceph的行列。在国内也有越来
SDNLAB
2018/03/30
1.9K0
SDNLAB技术分享(十七):Ceph在云英的实践
kubernetes(十九) Ceph存储入门
Ceph是当前非常流行的开源分布式存储系统,具有高扩展性、高性能、高可靠性等优点,同时提供块存储服务(rbd)、对象存储服务(rgw)以及文件系统存储服务(cephfs),Ceph在存储的时候充分利用存储节点的计算能力,在存储每一个数据时都会通过计算得出该数据的位置,尽量的分布均衡。目前也是OpenStack的主流后端存储,随着OpenStack在云计算领域的广泛使用,ceph也变得更加炙手可热。国内目前使用ceph搭建分布式存储系统较为成功的企业有华为,xsky,杉岩数据,中兴,华三,浪潮,中移动等。
alexhuiwang
2020/09/23
3.9K0
kubernetes(十九) Ceph存储入门
ceph 分布式存储-块存储(RBD)搭建
PG数量的预估 集群中单个池的PG数计算公式如下:PG 总数 = (OSD 数 * 100) / 最大副本数 / 池数 (结果必须舍入到最接近2的N次幂的值)
Lucien168
2020/07/20
3.4K0
Ceph分布式存储工作原理 及 部署介绍
存储根据其类型,可分为块存储,对象存储和文件存储。在主流的分布式存储技术中,HDFS/GPFS/GFS属于文件存储,Swift属于对象存储,而Ceph可支持块存储、对象存储和文件存储,故称为统一存储。
洗尽了浮华
2022/03/28
7K0
Ceph分布式存储工作原理 及 部署介绍
Ceph 分布式存储使用指南
*注意:本文大部分参考官方文档https://docs.ceph.com/docs/octopus/,因为网络原因,部署命令和官网有些许出入,更符合现在条件一些,且官方已经抛弃ceph-deploy 部署工具改用cephadm,不要傻傻看使用ceph-deploy的老古董啦。
jwangkun
2021/12/23
2.6K0
Ceph 分布式存储使用指南
Ceph分布式存储性能调优(六)
Ceph 集群的部署必须要正确规划, MON 性能对集群总体性能至关重要。 MON 通常应位于专用节点上。为确保正确仲裁,MON 的数量应当为奇数。
Lansonli
2022/04/15
1.3K0
Ceph分布式存储性能调优(六)
Ceph分布式存储系统架构研究综述
Ceph项目是加州大学圣克鲁兹分校的 Weil于2006年开发的。当时他发现元数据的查询和维护严重影响了 Lustre等分布式文件系统的性能和扩展性,因此设计了一种利用算法来确定数据与存储节点对应关系的方法 CRUSH。2015年5月发布的 Linux内核2.6.34已开始支持Ceph。Weil也成立了IntTank公司,专注于Ceph的开发。2014年5月,该公司被 RedHat收购。Ceph同时支持3种存储访问接口,因此被广泛应用于开源私有云计算平台中,为云计算平台提供虚拟机存储和对象访问能力。
肉眼品世界
2021/07/13
8420
Ceph分布式存储系统架构研究综述
CentOS7.4安装ceph lio iSCSI gateway操作指导
本文作者 / Wenda 关注存储以及周边生态,独立的存储系统生存太艰难,融入生态才体现价值。 1、背 景 我们Ceph作为后端存储时,这里只针对块存储空间的使用进行讨论。 对于块存储空间,Linux用户的使用方法有多种,如:rbd map方式、rbd-nbd map方式、 rbd-fuse方式, 但是对于Windows用户,如何使用呢?--- 答案:通过ISCSI访问。 2、说 明 针对块存储场景,iSCSI gateway的作用: 1) 采用ceph作为后端存储时,通过iSCSI协议为Wi
腾讯云TStack
2019/08/02
3.9K0
CentOS7.4安装ceph lio iSCSI gateway操作指导
Ceph分布式存储初步认识(一)
Ceph 是一个去中心化的分布式存储系统, 提供较好的性能、可靠性和可扩展性。 Ceph 项目最早起源于Sage就读博士期间的工作(最早的成果于 2004 年发表),并随后贡献给开源社区, 遵循 LGPL 协议 (LESSER GENERAL PUBLIC LICENSE 的简写,中文译为 “ 较宽松公共许可证 ” )。在经过了数年的发展之后,目前已得到众多云计算厂商(OpenStack 、 CloudStack 、 OpenNebula 、 Hadoop )的支持并被广泛应用。
Lansonli
2022/04/11
1.3K1
Ceph分布式存储初步认识(一)
小甲陪你一起看Ceph (OSDC | 上篇)
小甲师兄有个喜好——喜欢下雨:每逢下雨天,不是诗兴大发,就是代码撸的飞起。再加上最近在优化rbd,小甲把之前分析的OSDC代码分享给大家
腾讯云TStack
2019/05/16
8.3K0
小甲陪你一起看Ceph (OSDC | 上篇)
Kubernetes 集群分布式存储插件 Rook Ceph部署
我们经常会说:容器和 Pod 是短暂的。其含义是它们的生命周期可能很短,会被频繁地销毁和创建。容器销毁时,保存在容器内部文件系统中的数据都会被清除。为了持久化保存容器的数据,可以使用存储插件在容器里挂载一个基于网络或者其他机制的远程数据卷,使得在容器里创建的文件,实际上是保存在远程存储服务器上,或者以分布式的方式保存在多个节点上,而与当前宿主机没有绑定关系。这样,无论在哪个节点上启动新的容器,都可以请求挂载指定的持久化存储卷。
高楼Zee
2020/11/04
3.2K0
Kubernetes 集群分布式存储插件 Rook Ceph部署
相关推荐
携程网的Ceph实践之路
更多 >
领券
💥开发者 MCP广场重磅上线!
精选全网热门MCP server,让你的AI更好用 🚀
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档