首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >为什么 EDSFF 会成为下一代存储接口范式?解决了什么问题?

为什么 EDSFF 会成为下一代存储接口范式?解决了什么问题?

作者头像
数据存储前沿技术
发布2025-10-09 10:59:49
发布2025-10-09 10:59:49
1180
举报

阅读收获

  • 掌握EDSFF如何系统性解决传统U.2/M.2存储接口的散热、密度与运维痛点。
  • 理解EDSFF在PCIe 6.0、CXL等未来技术演进中的关键作用,及其对AI服务器架构的赋能。
  • 洞察液冷技术如何突破EDSFF SSD的功耗与性能瓶颈,实现极致性能密度。
  • 评估不同EDSFF形态(E1.S, E1.L, E3.S)在性能、密度和应用场景上的最佳选择。

全文概览

随着AI、HPC等工作负载的爆发式增长,传统数据中心存储接口U.2/M.2的散热、密度与性能瓶颈日益凸显。我们是否需要一种全新的存储形态,来应对未来服务器架构的挑战?本文将深入探讨EDSFF如何通过系统性设计,在运维效率、容量密度、未来兼容性及散热效率上实现革命性突破,尤其是在液冷技术加持下,成为AI时代数据中心存储的理想选择。

👉 划线高亮 观点批注


EDSFF 模块接口技术演进趋势

市场上关于EDSFF形态规格的技术疑虑
市场上关于EDSFF形态规格的技术疑虑

市场上关于EDSFF形态规格的技术疑虑

PPT的核心观点是主动反驳市场上关于EDSFF形态规格的负面传闻和技术疑虑,强调其先进性、灵活性和面向未来的能力

  1. 散热与功耗优势:EDSFF并非比传统的U.2更热,并且其生态系统支持先进的液冷方案,这些液冷SSD同样可以实现热插拔和前置维护。同时,像E1.S这样的具体规格,其功耗并非被限制在20W,能够支持更高性能的设计。
  2. 高密度与高性能:EDSFF能够支持高容量密度,并非像传闻中那样仅限于低密度应用。
  3. 面向未来的架构:EDSFF已经为支持下一代高速接口技术,如PCIe 6.0和CXL,做好了准备,这对于满足未来AI和HPC(高性能计算)等工作负载的带宽需求至关重要。
  4. 对AI应用的重要性:在AI这类高功耗场景下,EDSFF所支持的更高效散热方案(如液冷)的必要性和优越性。

理解 EDSFF 模块的使用场景和演进
理解 EDSFF 模块的使用场景和演进

理解 EDSFF 模块的使用场景和演进

  • 第一栏:Legacy (传统规格)
    • U.2: 展示了一个标准的2.5英寸U.2 SSD图片,这是一种在传统服务器中广泛使用的形态。
    • M.2: 展示了一个M.2 SSD的图片,它是一种更小、更紧凑的“口香糖”状规格,最初多用于客户端设备,后来也被服务器(特别是用于启动盘或缓存)采用。
  • 第二栏:Usages (应用场景)
    • 这一栏是核心,它将传统规格与具体应用场景关联,并指明了它们向新型EDSFF规格的演变方向。它被分为三个应用类别:
      1. 2U density-optimized (2U机架密度优化型):
        • 应用场景:更高功率的性能型服务器;混合设备服务器(可容纳FPGA、加速卡、SSD等)。
        • 演变路径:箭头指示出,这类场景中使用的U.2规格正在向E3.S演变。
      2. 1U performance-optimized (1U机架性能优化型):
        • 应用场景:需要小尺寸、高密度和高IOPS的场景;刀片服务器、边缘计算和存储;启动盘。
        • 演变路径:箭头指示出,这类场景中使用的U.2和M.2规格,正在统一向E1.S演变。
      3. 1U density-optimized (1U机架密度优化型):
        • 应用场景:小尺寸、高密度;云存储;JBOFs(Just a Bunch of Flashes)、存储阵列和数据管道。
        • 演变路径:箭头指示出,这类场景中使用的M.2规格正在向E1.L演变。

传统U.2/M.2 形态存在的问题

U.2和M.2形态并非为现代高密度、高性能闪存设计,其历史包袱严重限制了数据中心发展。

  1. 散热瓶颈: U.2沿袭机械硬盘设计,散热效率低下,无法应对SSD高功耗导致过热降速。M.2为笔记本设计,散热空间极小,服务器密集部署难散热。
  2. 密度瓶颈: U.2在1U服务器密度受限。M.2虽小但非热插拔,无法前端高密度部署。
  3. 性能与连接器瓶颈: 传统连接器和设计未优化PCIe 5.0/6.0超高速信号,也难以兼容CXL等新兴技术对散热、供电的要求。
  4. 运维瓶颈: M.2非热插拔,更换需关机,运维成本高昂。U.2虽热插拔,但生态标准混杂,运维复杂。

EDSFF 接口优势
EDSFF 接口优势

EDSFF 接口优势

EDSFF是一个经过系统性设计的、全方位超越传统规格的数据中心存储接口形态,它从可服务性、容量效率、未来兼容性和散热效率四个维度,为现代数据中心提供了根本性的改进。

  1. 运维效率的革命:EDSFF通过免工具热插拔前端密集部署板载LED等设计,极大地简化了数据中心的日常运维,降低了人力和时间成本。
  2. 密度的双重提升:EDSFF不仅能在服务器层面(单位空间容纳更多驱动器)提升密度,还能在驱动器层面(单个驱动器内容纳更多闪存)提升密度,实现了存储容量的指数级增长。
  3. 强大的前瞻性与灵活性:它是一个标准化、面向未来的平台,通过统一的连接器,不仅为PCIe 5.0/6.0铺平了道路,更通过兼容CXL技术,打破了存储与内存的界限,为未来异构计算服务器架构提供了物理基础。
  4. 散热是基石:所有优势的实现,都建立在卓越的散热设计之上。通过优化连接器、背板和整体形态,EDSFF从根本上改善了服务器的散热风道,这使得支持更高功耗、更高性能的设备成为可能,是解锁未来性能的关键。

EDSFF 通过在带宽、连接器和物理设计三个层面的前瞻性规划,实现了灵活性与可扩展性,使其成为一种能够适应当前和未来数据中心多样化需求的理想架构。

关键信息提炼如下:

  1. 性能扩展的灵活性 (Bandwidth Scaling): EDSFF的设计与PCIe技术的发展紧密同步。它能够无缝支持从PCIe 4.0到6.0甚至更高版本的代际升级,确保了存储性能可以随着主机技术的发展而平滑提升,为用户提供了长期的投资保护。
  2. 接口设计的标准化与可扩展性 (Connector Scalability): EDSFF的基石是其统一的、可扩展的连接器。这个“通用连接器”不仅统一了E1和E3等所有形态,还支持从x4到x16不同的通道配置。这种标准化极大地简化了生态系统(服务器、背板、SSD)的设计,同时提供了从主流到顶级的性能分层能力。
  3. 密度提升的系统性逻辑 (Systematic Density Scaling): EDSFF实现高密度并非单一维度的成功,而是散热、尺寸和空间利用三者协同作用的结果。高效的散热是基础,它允许在有限空间内集成更高功率的组件;灵活的驱动器尺寸则让服务器设计师可以像搭积木一样优化内部空间,最终实现整机存储密度的最大化。这是一个系统工程上的胜利。

EDSFF 能耗分析

1U服务器空间内,不同形态规格能实现的最大性能/功率
1U服务器空间内,不同形态规格能实现的最大性能/功率

1U服务器空间内,不同形态规格能实现的最大性能/功率

通过量化数据证明,EDSFF生态系统相比传统U.2,能够在1U服务器空间内实现存储性能密度的巨大飞跃,并且液冷等先进散热技术是解锁其全部潜能的关键。

  1. EDSFF性能密度碾压U.2: 数据清晰地显示,即便是入门级的EDSFF配置,其系统级存储总功率(性能)也是传统U.2方案的数倍。顶级EDSFF方案(E3.L)的性能密度更是U.2的5倍以上(1680W vs 300W)。
  2. 性能密度取决于“数量”和“单盘功率”的乘积: 实现最高的系统性能,不仅要看能装多少个盘,更要看每个盘能跑多快(功率多高)。E3.L之所以最强,是因为它在保证了较高数量(24个)的同时,支持极高的单盘功率(70W)。
  3. 液冷是性能倍增器: 对比风冷和液冷的E1.S可以看出,散热技术的进步可以直接将单盘的性能潜力(功率)提升一倍(从20W到40W),从而大幅提高整个系统的性能密度。
  4. EDSFF提供多样化选择以满足不同优化目标:
    • 若追求极致性能,选择E3.L
    • 若追求极致密度(硬盘数量),选择E1.L
    • 若在性能和密度间寻求最佳平衡E1.S(特别是液冷版)是一个极具吸引力的选择。

典型气流下不同接口类型的散热表现
典型气流下不同接口类型的散热表现

典型气流下不同接口类型的散热表现

  • X轴 (横轴): SSD Power (W) - 代表单个SSD的运行功率(瓦)。功率越高,通常意味着性能越强,但产生的热量也越多。
  • Y轴 (竖轴): Max. Allowable Approach Air Temp. (°C) - “最大允许入口空气温度”。这是一个关键指标,指的是为保证SSD内部芯片不出现过热,其入口处的冷却空气最高可以是多少度。这个数值越高,说明SSD的散热设计越好,对服务器整体的散热环境要求越宽松。

虽然标准的风冷E1.S 9.5mm SSD在散热能力上有限制,但液冷技术的引入,极大地提升了这款高密度形态的性能上限,使其成为一个兼具密度与高性能的强大解决方案。

  1. 风冷散热存在权衡: 图表数据显示,在风冷服务器中,SSD的散热能力(承受高温环境的能力)与其物理尺寸/散热片设计直接相关。更厚、更大的规格(如E1.S 15mm, E3系列)自然比纤薄的E1.S 9.5mm拥有更好的散热表现。
  2. 液冷是性能突破的关键: 本张PPT最关键的信息是,液冷技术打破了E1.S 9.5mm的物理散热瓶颈。图表显示风冷E1.S 9.5mm的功率被限制在20W左右,而文字结论明确指出,采用液冷后,同样物理尺寸的SSD功耗可以提升到35-40W。
  3. 实现“鱼与熊掌兼得”: E1.S 9.5mm形态最初的设计目标是实现极致的存储密度。通过引入液冷,它现在不仅能保持原有的密度优势,还能达到以往只有更大尺寸SSD才能企及的性能水平。这对于构建单位空间内算力/存力都极强的服务器至关重要。

为什么SSD也要考虑液冷方案?
为什么SSD也要考虑液冷方案?

为什么SSD也要考虑液冷方案?

在以NVIDIA GB200为代表的现代AI基础设施中,由于系统和组件功耗的爆炸式增长,为SSD采用液冷技术已不是一种选择,而是一种必然。

  1. 问题根源:极端功耗密度。 驱动液冷需求的核心动力来自两个层面:一是组件级的功耗飙升(SSD高达70W),二是系统级的功耗爆炸(整机柜超130kW)。传统风冷已无法应对这种双重压力。
  2. 架构演进的必然要求。 新一代AI服务器正在转向集中式液冷无风扇机箱的设计,存储设备必须适应这一趋势,通过集成液冷能力来融入新的生态系统。
  3. 系统级的全局优化。 为SSD采用液冷,带来的好处是系统性的。它不仅解决了SSD自身的散热问题,还通过移除“风墙”,优化了服务器的整体风道,并保障了SSD的性能和可靠性
  4. 技术协同的经济性。 在AI机柜已经普及液冷的背景下,将SSD纳入现有的液冷循环是一种顺势而为、经济高效的扩展,体现了系统设计的整体性和协同性。

AI时代的SSD液冷技术
AI时代的SSD液冷技术

AI时代的SSD液冷技术

图示指出:一个简单的、单面接触式液冷方案的固有缺陷。SSD内部的NAND闪存颗粒和主控芯片分布在PCB(印刷电路板)的两面,因此热量会从两侧产生。如果只冷却一面,另一面的热量就无法被有效带走

解决方案不是用两个冷板,而是通过一个经过巧妙工程设计的外壳或托架。这个外壳能够有效地将SSD两侧的热量都传导到同一个冷板上,从而实现对整个SSD的均匀、高效冷却。一个绿色箭头从“解决方案”文字指向整个模组,示意这就是那个集成的解决方案。

要实现真正高效的SSD液冷,必须采用能够同时为SSD双面散热的精密工程设计,而这种先进的散热方案是构建下一代无风扇、高能效AI服务器的基石。

  1. 点明技术难点: 高效的SSD液冷并非简单地贴上一个冷板。其核心挑战在于解决SSD双面发热的物理特性,避免单面冷却带来的局部过热问题。
  2. 展示工程创新: 解决方案的精髓在于一个智能的导热结构(SSD enclosure)。它通过巧妙的设计,用 “一”个冷板实现了对“两”个发热面的高效冷却,兼顾了效能与结构简洁性。
  3. 揭示最终目标: 解决SSD的散热问题,其最终目的并不仅仅是为了SSD本身,而是为了赋能整个服务器乃至数据中心的架构变革。它是实现**“无风扇AI服务器”**这一宏大目标的关键技术之一,最终将转化为数据中心整体能效的提升。

推动 EDSFF 接口落地的整个上下游

SNIA 作为标准协定组织,确定行业需求和标准的生命周期; 硬盘厂商采用 EDSFF 标准,生产符合协议要求的存储颗粒; 整机OEM厂商,整合服务器各个组件; 下游消费厂商,主要是CSPs (大型云服务供应商)


核心要点总结
核心要点总结

核心要点总结

为满足新一代AI服务器对极致性能的需求,E1.S 9.5mm液冷SSD提供了一个集高性能、高密度和高能效于一体的、面向未来的理想解决方案。

  1. 市场驱动力 (The Why): AI服务器对性能的渴求,推动了对PCIe Gen5/6等高性能、高功耗SSD的应用需求。
  2. 核心解决方案 (The What): E1.S 9.5mm液冷SSD是应对这一挑战的关键技术。
  3. 带来的核心价值 (The Value): 该方案的价值体现在三个层面,层层递进:
    • 性能层面: 能够支持35-40W的高功耗,确保了顶级性能的持续输出。
    • 集成层面: 以紧凑的外形实现了性能与密度的完美结合,解决了AI服务器空间与性能的矛盾。
    • 架构层面: 它是实现**“无风扇服务器”**这一革命性架构的关键赋能技术,将为数据中心带来系统级的能效提升。

Solodigm EDSFF 产品组合
Solodigm EDSFF 产品组合

Solodigm EDSFF 产品组合

图示应该是量产的 EDSFF 接口硬盘。

  • TLC 作为成熟、高性能 三层单元,目前仍是市场主流产品,并优先适配了 PCIe 5.0
  • QLC 因大容量,且写入寿命受限,市场成熟度有限,接口上仍是以 PCIe 4.0 为主

延伸思考

这次分享的内容就到这里了,或许以下几个问题,能够启发你更多的思考,欢迎留言,说说你的想法~

  1. 在实际数据中心部署中,从传统U.2/M.2向EDSFF迁移可能面临哪些技术和成本挑战?您认为如何有效克服?
  2. 随着液冷技术在SSD乃至整个服务器中的普及,这会对数据中心的整体设计、运维模式及能源效率带来哪些深远影响?
  3. EDSFF与CXL技术的结合,将如何重塑未来异构计算服务器的内存与存储层次结构,并对软件开发带来哪些新的机遇与挑战?

原文标题:EDSFF – how it enables & addresses emerging AI servers[1]

Notice:Human's prompt, Datasets by Gemini-2.5-Pro

#FMS25 #EDSFF

---【本文完】---


公众号:王知鱼,专注数据存储、云计算趋势&产品方案。

PPT取自 Solidigm 市场营销 Ratnesh Muchhal,在FMS 2025 闪存峰会上的汇报材料。

👇阅读原文,查看历史文章,推荐PC端打开 💻。


  1. https://files.futurememorystorage.com/proceedings/2025/20250805_DCTR-101-1-Muchhal_fnl.pdf ↩
本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-09-28,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 王知鱼 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • EDSFF 模块接口技术演进趋势
  • EDSFF 能耗分析
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档