前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Ironic 裸金属管理服务的底层技术支撑

Ironic 裸金属管理服务的底层技术支撑

作者头像
Laikee
发布于 2022-09-18 23:13:11
发布于 2022-09-18 23:13:11
2.5K00
代码可运行
举报
文章被收录于专栏:Laikee Tech SpaceLaikee Tech Space
运行总次数:0
代码可运行

底层技术支撑

  • PXE:预启动执行环境,支持客户端通过网络从 TFTP Server 下载操作系统镜像,并由此支持通过网络启动操作系统引导程序。
  • IPMI:智能平台管理接口,一种开放标准的硬件管理接口规范,通过 IPMI 可以控制物理服务器的电源、配置启动顺序、查看 KVM Console 等。
  • DHCP:动态主机配置协议,给局域网内的主机分配 IP 地址。 TFTP:简单文件传输协议,客户端与服务器之间进行简单文件传输的协议。相比 FTP,简单且开销小。
  • NBP:网络启动程序,自动加载并运行操作系统。

DHCP

Dynamic Host Configuration Protocol (DHCP): DHCP is a standardized networking protocol used on Internet Protocol (IP) networks for dynamically distributing network configuration parameters, such as IP addresses for interfaces and services. Using PXE, the BIOS uses DHCP to obtain an IP address for the network interface and to locate the server that stores the network bootstrap program (NBP).

NBP

Network Bootstrap Program (NBP): NBP is equivalent to GRUB (GRand Unified Bootloader) or LILO (LInux LOader) - loaders which are traditionally used in local booting. Like the boot program in a hard drive environment, the NBP is responsible for loading the OS kernel into memory so that the OS can be bootstrapped over a network.

TFTP

Trivial File Transfer Protocol (TFTP): TFTP is a simple file transfer protocol that is generally used for automated transfer of configuration or boot files between machines in a local environment. In a PXE environment, TFTP is used to download NBP over the network using information from the DHCP server.

IPMI

Ironic 使用 IPMI 来控制裸机的上下电、设置开机启动顺序(PXE 启动或本地磁盘启动)、获取电源状态、获取传感器状态、控制台重定向等。在裸机上架自检阶段会配置裸机的 BMC,包括 IP 地址、掩码、网关、用户名和密码。然后将 IPMI 的 IP 地址、用户名和密码注册到 Ironic 数据库。这样 Ironic 就可以获取到裸机的电源状态、执行开关机以及设置开机启动顺序了。

IPMI(Intelligent Platform Management Interface,智能平台管理接口)是一项应用于服务器带外管理系统设计的标准,通过特有的硬件设备而不是操作系统网络连接来对服务器进行电源的手段。IPMI 能够横跨不同的操作系统、固件和硬件平台,可以智能的监视、控制和上报服务器的运作状况(e.g. 远程开启、关闭电源)以及健康特征(e.g. 温度、电压、风扇工作状态、电源状态等)。IPMI 良好的自治特性克服了以往基于操作系统的管理方式所受的限制,实现了在操作系统不响应或未加载的情况下仍然可以对其进行开关机、信息提取等操作。Ironic 正是利用此技术可以远程的对裸机进行上下电或者其他操作,而不是依赖物理开关或者操作系统。

IPMI 的核心是 BMC(Baseboard Management Controller ,底板管理控制器),BMC 通常是一个安装在服务器主板上的独立板卡,其不依赖于服务器的处理器、BIOS 或操作系统来工作,可谓非常地独立,是一个单独在系统内运行的无代理管理子系统。BMC 与主板上的不同传感器通信来监视系统是否有严重事件,并在某些参数超出其预置阈值时发出警报和日志事件。所有的 IPMI 功能都是向 BMC 发送命令(IPMI 规范中规定的指令)来完成的,BMC 接收并在系统事件日志中记录事件消息,维护描述系统中传感器情况的传感器数据记录。

当需要对系统文本控制台进行远程访问时,IPMI 的 SOL(Serial Over LAN,LAN 上串口)功能非常关键。SOL 通过将 IPMI 会话重定向到本地串行接口,允许远程访问 Windows 的紧急事件管理控制台(EMS)特殊管理控制台(SAC)或访问 Linux 的串行控制台。BMC 通过在 LAN 上重定向串行端口的信息来做到这点,从而提供了一种与服务器厂商无关的远程查看 OS BootLoader 或紧急管理控制台来诊断和维修故障的标准方式,IPMI 甚至允许在操作系统引导阶段配置各种组件。

BMC 具有以下功能:

  • 通过系统的串行端口进行访问
  • 故障日志记录和 SNMP 警报发送
  • 访问系统事件日志和传感器状况
  • 远程开、关机
  • 独立于系统电源或工作状态的支持
  • 用于系统设置、基于文本公用程序和操作系统控制台的文本控制台重定向

ipmitool 操作示例:

改变服务器引导方式

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ipmitool -I lan -H <server_ip> -U root -P passwd chassis bootdev pxe
ipmitool -I lan -H <server_ip> -U root -P passwd chassis bootdev disk
ipmitool -I lan -H <server_ip> -U root -P passwd chassis bootdev cdrom

服务器电源管理

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# 硬关机,直接切断电源
ipmitool -I lan -H <server_ip> -U root -P passwd chassis power off 
# 软关机,即如同轻按一下开机扭
ipmitool -I lan -H <server_ip> -U root -P passwd chassis power soft
# 硬开机
ipmitool -I lan -H <server_ip> -U root -P passwd chassis power on
# 硬重启
ipmitool -I lan -H <server_ip> -U root -P passwd chassis power reset
# power off, wait 1s, power on
ipmitool -I lan -H <server_ip> -U root -P passwd chassis power cycle
# 获取当前电源状态
ipmitool -I lan -H <server_ip> -U root -P passwd chassis power status

PXE & iPXE

Ironic 使用 PXE 引导启动 Deploy Image(RAMDisk),且 RAMDisk 内含有 IPA,是 Agent 部署方式的基础。PXE 的使用需要借助于 DHCP 服务器和 TFTP 服务器。DHCP 服务器主要给裸机的 PXE 网卡分配 IP 地址、传递 TFTP 服务器的 IP 地址以及 NBP 文件的位置信息。PXE 从 TFTP 服务器下载并执行 NBP 文件,根据 NBP 文件的执行结果,从 TFTP 服务器下载内核和系统文件并加载。此时的裸机就进入了 RAMDisk 系统,IPA 自启动后,会与 Ironic 取得联系并发送心跳。Ironic 控制 IPA 进行 User Image 的下载与安装。安装后,Ironic 设置裸机从根磁盘启动,并重启进入用户的操作系统。

PXE(Preboot Execute Environment,预启动执行环境),采用 C/S 架构,支持终端通过网络从远端服务器下载映像,并由此支持通过网络启动操作系统。PXE 是目前主流的无盘启动技术,它可以使计算机通过网络而不是从本地硬盘或光驱等设备启动。利用 PXE 进行系统安装需要被安装的主机上有 PXE 支持的网卡,现在的网卡一般都内嵌支持 PXE 的 ROM 芯片。当计算机引导时,BIOS 首先会把 PXE Client 调入内存中执行,PXE Client 被载入内存后,它便同时具有 DHCP Client 和 TFTP Client 的功能,DHCP Client 会向 DHCP Server 请求 IP 分配给将要安装 操作系统的终端主机,然后由 PXE Client 将放置在远端的启动软件包通过 TFTP(Trivial File Transfer Protocol)或 MTFTP(Multicast Trivial File Transfer Protocol)下载到本地内存中执行。由这个启动软件包完成终端的基本软件设置,从而引导预先安装在服务器中的终端操作系统。iPXE 是 PXE 的扩展版,支持更多的协议,兼容性更好,不挑网卡。支持 HTTP 协议,可以通过 HTTP、ISCSI SAN、FC SAN 等方式启动。iPXE 的官方网站: http://ipxe.org/

PXE 安装引导过程:

  • 终端从 PXE 网卡启动,向带内网络中的 DHCP 服务器索取 IP 地址和搜寻引导文件的位置。
  • DHCP 服务器返回分给终端 IP 以及 NBP(网络启动程序,会自动加载引导文件并运行操作系统)文件的路径(通常为 TFTP 服务器)。
  • 终端从带内网络中的 TFTP 服务器下载 NBP。
  • 终端得到了 NBP 后自动从 TFTP 服务器下载引导文件,比如:pxelinux.0(GRUB)、vmlinuz(内核文件),initrd(内存驱动盘)等文件。
  • 安装操作系统

Cloud Init

Ironic 通过集成在 User Image 中的 cloud-init 来完成操作系统配置信息的初始化,包括创建用户、修改密码、配置网络等。

详情请浏览:《Openstack 实现技术分解 (2) 虚拟机初始化工具 — Cloud-Init & metadata & userdata》

Linux 操作系统启动引导过程

  • 起电
  • 加载主板 BIOS(主板固体程序)
  • BIOS 检测硬件是否有故障
  • BIOS 到 MBR(Master Boot Recorder,主引导记录)中寻找启动介质,MBR 的 512B 由 BootLoader 446B、分区表 64B 以及校验结束位 2B 组成。
  • 常见的 BootLoader 有 GRUB2,它会将保存在 /boot 的 Kernel 加载到 RAM。
  • 加载 Kernel 后,GRUB2 跳转到 Kernel 的入口运行,正式启动操作系统。

注:GRUB2 的本质是一个微型操作系统,可以识别常用的文件系统。GRUB2 运行时会读取配置文件 /boot/grub2/grub.cfg,在 grup.cfg 中可以记录若干个 Kernel 条目,均以 menuentry 开头。menuentry 以 {} 包含了相应的启动项,linux16 这行指定 Kernel 的路径和启动参数。

e.g.

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
menuentry 'CentOS Linux (3.10.0-957.10.1.el7.x86_64) 7 (Core)' --class centos --class gnu-linux --class gnu --class os --unrestricted $menuentry_id_option 'gnulinux-3.10.0-862.el7.x86_64-advanced-12253837-a340-4053-b3e8-3140da283a41' {
        load_video
        set gfxpayload=keep
        insmod gzio
        insmod part_msdos
        insmod xfs
        set root='hd0,msdos1'
        if [ x$feature_platform_search_hint = xy ]; then
          search --no-floppy --fs-uuid --set=root --hint-bios=hd0,msdos1 --hint-efi=hd0,msdos1 --hint-baremetal=ahci0,msdos1 --hint='hd0,msdos1'  c78b0a6e-7906-4f1f-9667-c61741a4b5ee
        else
          search --no-floppy --fs-uuid --set=root c78b0a6e-7906-4f1f-9667-c61741a4b5ee
        fi
        # 根分区的位置
        # 以只读方式挂载根分区
        # rhgb(以图形化方式显示启动过程)
        # quiet(启动过程出现错误提示)
        # 字符集
        # 键盘布局
        # 语言
        linux16 /vmlinuz-3.10.0-957.10.1.el7.x86_64 root=/dev/mapper/centos-root ro crashkernel=auto rd.lvm.lv=centos/root rd.lvm.lv=centos/swap rhgb quiet LANG=en_US.UTF-8
        initrd16 /initramfs-3.10.0-957.10.1.el7.x86_64.img
}

initrd16 指定了 initramfs image 的位置,initramfs 是 initrd 的升级版,改进了后者不能调整大小的缺点。但两者的本质都是 boot loader initialized RAM disk,即在系统初始化引导时加载的 RAMDisk 设备,本质是一个小型的根目录。RAMDisk 内含了启动阶段中必须的驱动模块,可执行文件和启动脚本,并且这些程序可以在 /initrd 根目录上执行,不需要等到挂载了真正的根目录 (’/’) 之后才能被执行。RAMDisk 的存在完善 Kernel 的模块机制,让内核的初始化流程更具弹性。其中的 udevd 可执行文件在自动加载了磁盘驱动程序之后就可以 Mount 并切换到真正的根目录了。

https://www.cnblogs.com/jmilkfan-fanguiju/p/11825063.html#Linux__83

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2022-07-30,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
Linux源码分析-RDMA的通信连接管理CM模块
RDMA CM 是一种通信管理器,用于设置可靠、连接和不可靠的数据报数据传输。 它提供用于建立连接的 RDMA 传输中立接口。 API 概念基于套接字,但适用于基于队列对 (QP) 的语义:通信必须通过特定的 RDMA 设备进行,并且数据传输基于消息。 RDMA CM 可以控制 RDMA API 的 QP 和通信管理(连接建立/拆除)部分,或者仅控制通信管理部分。 它与 libibverbs 库定义的 verbs API 结合使用。 libibverbs 库提供了发送和接收数据所需的底层接口。 RDMA CM 可以异步或同步操作。 用户通过在特定调用中使用 rdma_cm 事件通道参数来控制操作模式。 如果提供了事件通道,rdma_cm 标识符将报告该通道上的事件数据(例如连接结果)。 如果未提供通道,则所选 rdma_cm 标识符的所有 rdma_cm 操作将被阻止,直到完成。 RDMA CM 为不同的 libibverbs 提供商提供了一个选项来宣传和使用特定于该提供商的各种 QP 配置选项。 此功能称为 ECE(增强连接建立)
晓兵
2024/04/27
1.2K0
Linux源码分析-RDMA的通信连接管理CM模块
RDMA - 通信库Libfabric的verbs实现(GDR概览)
Libfabric: https://github.com/ofiwg/libfabric.git
晓兵
2024/12/28
3050
RDMA - 通信库Libfabric的verbs实现(GDR概览)
DAOS Mercury(HG) Libfabric(OFI) RDMA 分层verbs接口调用详解
参考之前的分享中, DAOS与RDMA分层关系如下图, DAOS引擎 -> CART(RPC/大块数据/集合RPC请求) -> Mercury(HG: RPC注册/回调/RPC操作/预期/非预期消息/大块消息/轮训/阻塞/网络抽象等) -> Libfabric(网络抽象层,对rxm,rdma verbs, socket, 共享内存等抽象) -> RDMA(verbs) -> rdma-core(用户态驱动) -> RDMA网卡硬件驱动(如:英伟达 mellanox迈络思), 今天咱们来探讨一下分层verbs接口调用详情
晓兵
2023/10/05
1K2
DAOS Mercury(HG) Libfabric(OFI) RDMA 分层verbs接口调用详解
DAOS低时延与高性能RDMA网络(CART_RPC_Mercury_Libfabric_Rxm_Verbs_RDMA)
RDMA(Remote Direct Memory Access)远程直接内存访问是一种技术,它使两台联网的计算机能够在主内存中交换数据,而无需依赖任何一台计算机的处理器、缓存或操作系统。与基于本地的直接内存访问 ( DMA ) 一样,RDMA 提高了吞吐量和性能,因为它可以释放资源(如cpu),从而加快数据传输速率并降低延迟。在大规模并行计算机集群中特别有用,比如分布式存储,超算中心。
晓兵
2023/06/23
9170
DAOS低时延与高性能RDMA网络(CART_RPC_Mercury_Libfabric_Rxm_Verbs_RDMA)
RDMA-Linux-infiniband-RDMA子系统-源码分析-IB架构-IB设备初始化和注册-内核uverbs接口注册-GID缓存机制
该驱动程序通过 Linux 网络堆栈实现 InfiniBand RDMA 传输。 它使具有标准以太网适配器的系统能够与 RoCE 适配器或运行 RXE 驱动程序的另一个系统进行互操作。 有关 InfiniBand 和 RoCE 的文档可以从 www.infinibandta.org 和 www.openfabrics.org 下载。 (另请参见 siw,它是 iWARP 的类似软件驱动程序。)该驱动程序分为两层,一层与 Linux RDMA 堆栈接口,并实现内核或用户空间动词 API。 用户空间动词 API 需要一个名为 librxe 的支持库,该支持库由通用用户空间动词 API libibverbs 加载。 另一层与第 3 层的 Linux 网络堆栈接口。要配置和使用 soft-RoCE 驱动程序,请使用“配置 Soft-RoCE (RXE)”部分下的以下 wiki 页面:https://github.com/linux-rdma/rdma-core/blob/master/Documentation/rxe.md
晓兵
2024/04/19
1.9K0
RDMA-Linux-infiniband-RDMA子系统-源码分析-IB架构-IB设备初始化和注册-内核uverbs接口注册-GID缓存机制
RDMA_verbs详解-修改队列对属性(ibv_modify_qp)-ceph-ucx-nccl-intel rdma驱动源码解析
QP上可变化的属性描述了QP的发送和接收属性。 在 UC 和 RC QP 中,这意味着将 QP 与远程 QP 连接。 在 Infiniband 中,应向子网管理员 (SA) 执行路径查询,以确定 QP 应配置哪些属性或作为最佳解决方案,使用通信管理器 (CM) 或通用 RDMA CM 代理 (CMA) 连接 QP。 然而,有些应用程序(如ceph)更喜欢自行连接 QP,并通过套接字交换数据来决定使用哪些 QP 属性。 在 RoCE 中,应在连接的 QP 的 QP 属性中配置 GRH,或在 UD QP 的地址句柄(Address Handle)中配置 GRH。 在 iWARP 中,应仅使用通用 RDMA CM 代理 (CMA) 连接 QP。 结构体: struct ibv_qp_attr 描述了队列对QP的属性:
晓兵
2024/02/24
9524
RDMA_verbs详解-修改队列对属性(ibv_modify_qp)-ceph-ucx-nccl-intel rdma驱动源码解析
Linux RDMA RXE/SoftRoCE 软件RoCE-内核驱动源码
rdma_rxe 内核模块提供 RoCEv2 协议的软件实现。 RoCEv2 协议是存在于 UDP/IPv4 或 UDP/IPv6 之上的 RDMA 传输协议。 InfiniBand (IB) 基本传输标头 (BTH) 封装在 UDP 数据包中。 创建 RXE 实例后,通过 RXE 进行通信与通过任何 OFED 兼容的 Infiniband HCA 进行通信相同,尽管在某些情况下会涉及寻址问题。 特别是,虽然 GRH 标头的使用在 IB 子网中是可选的,但对于 RoCE 来说是强制性的。 基于 IB 动词编写的动词应用程序应该可以无缝工作,但它们需要在创建地址向量时提供 GRH 信息。 修改库和驱动程序以提供硬件所需的从 GID 到 MAC 地址的映射
晓兵
2024/04/10
2.4K2
Linux RDMA RXE/SoftRoCE 软件RoCE-内核驱动源码
RDMA_verbs编程详解-查询设备列表(ibv_get_device_list)和打开设备(ibv_open_device)
IB设备通过ib_core驱动注册后(lsmod|grep ib), 在sysfs下生成的目录树参考如下:
晓兵
2024/02/13
1.2K0
RDMA_verbs编程详解-查询设备列表(ibv_get_device_list)和打开设备(ibv_open_device)
分布式存储_高性能RDMA网络_架构设计_性能调优参考_网卡排查命令_笔记
博客: https://logread.cn | https://blog.csdn.net/ssbandjl | https://cloud.tencent.com/developer/user/5060293/articles
晓兵
2023/11/03
4.9K0
分布式存储_高性能RDMA网络_架构设计_性能调优参考_网卡排查命令_笔记
RDMA_verbs详解-ibv_reg_mr(注册内存)源码分析
博客: https://cloud.tencent.com/developer/user/5060293/articles | https://logread.cn | https://blog.csdn.net/ssbandjl | https://www.zhihu.com/people/ssbandjl/posts
晓兵
2024/03/23
1.5K2
RDMA_verbs详解-ibv_reg_mr(注册内存)源码分析
NVMe-oF,nvme_cli_initiator与tgt(spdk_tgt)之Fabrics(RDMA)流程源码分析
NVMe over Fabrics (NVMe-oF) 是 NVMe 网络协议对以太网和光纤通道的扩展,可在存储和服务器之间提供更快、更高效的连接,并降低应用程序主机服务器的 CPU 利用率
晓兵
2023/07/14
2.3K0
NVMe-oF,nvme_cli_initiator与tgt(spdk_tgt)之Fabrics(RDMA)流程源码分析
DAOS_分布式存储_mercury_libfabric_rdma_rpc高性能网络_大块数据_bulk传输_中断_轮询自动切换_等笔记
博客: https://logread.cn | https://blog.csdn.net/ssbandjl | https://cloud.tencent.com/developer/user/5060293/articles
晓兵
2023/11/03
4290
DAOS_分布式存储_mercury_libfabric_rdma_rpc高性能网络_大块数据_bulk传输_中断_轮询自动切换_等笔记
RDMA - ODP按需分页设计原理-优点-源码浅析
HMM: 异构内存管理(Heterogeneous Memory Management)
晓兵
2024/06/14
7540
RDMA - ODP按需分页设计原理-优点-源码浅析
DAOS分布式存储_libfabric_高性能RPC_rdma网络_笔记
博客: https://logread.cn | https://blog.csdn.net/ssbandjl | https://cloud.tencent.com/developer/user/5060293/articles
晓兵
2023/11/03
6630
DAOS分布式存储_libfabric_高性能RPC_rdma网络_笔记
Nvidia DOCA - 芯片上的数据中心软硬件架构简介
DOCA: Data Center-on-a-Chip Architecture, 芯片上的数据中心架构
晓兵
2024/03/31
5440
Nvidia DOCA - 芯片上的数据中心软硬件架构简介
RDMA - inline 内联提高小包性能-降低时延(减少两个 PCIe 往返延迟)
这篇文章描述了通过 PCI Express 结构在 CPU 和 NIC 之间发生的一系列协调事件,以通过 InfiniBand 互连传输消息并发出其完成信号。
晓兵
2024/06/16
1K0
RDMA - inline 内联提高小包性能-降低时延(减少两个 PCIe 往返延迟)
UCX-UCT统一通信传输层3-服务端和客户端调用栈详解(及相关)_源码解读
https://github.com/ssbandjl/ucx/blob/master/category/uct_readme
晓兵
2023/10/30
1.3K0
UCX-UCT统一通信传输层3-服务端和客户端调用栈详解(及相关)_源码解读
NCCL与RDMA和MPI基本框架源码分析
verbs:宽松排序内存区域,添加一个标志以允许创建宽松排序内存区域。 通过此类 MR 的访问可以通过允许系统对某些访问重新排序来提高性能。 由于宽松排序是一种优化,因此不支持它的驱动程序可以简单地忽略它。 可选的 MR 访问位范围是根据内核匹配部分定义的,其第一个条目将为 IBV_ACCESS_RELAXED_ORDERING。 如果应用程序使用可选范围中的一位,则库会将其屏蔽掉,以防内核不支持“MR 可选模式”, IBV_ACCESS_RELAXED_ORDERING 此设置允许 NIC 放宽在网络和目标内存区域之间传输数据的顺序。放宽排序允许网络发起的写入(例如传入消息发送或 RDMA 写入操作)以任意顺序到达内存。这可以提高某些应用程序的性能。但是,放宽排序具有以下影响:不再保证 RDMA 写入后写入消息的顺序。(发送消息仍将按顺序匹配已发布的接收缓冲区。)针对同一内存区域的背靠背网络写入使该区域处于未知状态。放宽排序不会改变完成语义,例如数据可见性。也就是说,完成仍然确保所有数据都是可见的,包括来自先前传输的数据。放宽排序的操作也不会绕过原子操作
晓兵
2025/02/06
3772
NCCL与RDMA和MPI基本框架源码分析
优化 RDMA 代码的建议和技巧-rdma性能优化技巧-避坑指南-RDMA资源
DMA 代表直接内存访问。这意味着应用程序可以在 CPU 干预的情况下直接访问(读/写)主机内存。如果您在主机之间执行此操作,它将成为远程直接内存访问 (RDMA)
晓兵
2023/12/19
2K2
优化 RDMA 代码的建议和技巧-rdma性能优化技巧-避坑指南-RDMA资源
RDMA - GDR GPU Direct RDMA快速入门2
https://hpcadvisorycouncil.atlassian.net/wiki/spaces/HPCWORKS/pages/2791440385/GPUDirect+Benchmarking
晓兵
2025/03/30
4110
RDMA - GDR GPU Direct RDMA快速入门2
推荐阅读
Linux源码分析-RDMA的通信连接管理CM模块
1.2K0
RDMA - 通信库Libfabric的verbs实现(GDR概览)
3050
DAOS Mercury(HG) Libfabric(OFI) RDMA 分层verbs接口调用详解
1K2
DAOS低时延与高性能RDMA网络(CART_RPC_Mercury_Libfabric_Rxm_Verbs_RDMA)
9170
RDMA-Linux-infiniband-RDMA子系统-源码分析-IB架构-IB设备初始化和注册-内核uverbs接口注册-GID缓存机制
1.9K0
RDMA_verbs详解-修改队列对属性(ibv_modify_qp)-ceph-ucx-nccl-intel rdma驱动源码解析
9524
Linux RDMA RXE/SoftRoCE 软件RoCE-内核驱动源码
2.4K2
RDMA_verbs编程详解-查询设备列表(ibv_get_device_list)和打开设备(ibv_open_device)
1.2K0
分布式存储_高性能RDMA网络_架构设计_性能调优参考_网卡排查命令_笔记
4.9K0
RDMA_verbs详解-ibv_reg_mr(注册内存)源码分析
1.5K2
NVMe-oF,nvme_cli_initiator与tgt(spdk_tgt)之Fabrics(RDMA)流程源码分析
2.3K0
DAOS_分布式存储_mercury_libfabric_rdma_rpc高性能网络_大块数据_bulk传输_中断_轮询自动切换_等笔记
4290
RDMA - ODP按需分页设计原理-优点-源码浅析
7540
DAOS分布式存储_libfabric_高性能RPC_rdma网络_笔记
6630
Nvidia DOCA - 芯片上的数据中心软硬件架构简介
5440
RDMA - inline 内联提高小包性能-降低时延(减少两个 PCIe 往返延迟)
1K0
UCX-UCT统一通信传输层3-服务端和客户端调用栈详解(及相关)_源码解读
1.3K0
NCCL与RDMA和MPI基本框架源码分析
3772
优化 RDMA 代码的建议和技巧-rdma性能优化技巧-避坑指南-RDMA资源
2K2
RDMA - GDR GPU Direct RDMA快速入门2
4110
相关推荐
Linux源码分析-RDMA的通信连接管理CM模块
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验