科技公司正在探索HBM(高带宽内存)设计的重大转变,试图将GPU核心直接嵌入下一代内存堆栈中。据韩国媒体报道,Meta和英伟达正在评估"定制HBM"架构,计划将GPU核心集成到未来HBM设备的基础裸片中,据称SK海力士和三星已参与早期讨论。
HBM通过硅通孔(TSV)技术将多个DRAM裸片堆叠在负责外部I/O的基础裸片之上。HBM4预计明年进入量产,并将集成板载控制器以提升带宽和效率。将GPU核心集成其中将进一步推进这一概念,将计算能力分布到内存内部,从而减少数据移动并降低功耗。
行业消息人士表示,该方法通过缩短计算与内存之间的距离,有望提升AI工作负载的性能和能效。但该设计仍面临重大挑战,例如基于TSV堆栈的裸片面积有限、供电限制,以及冷却基础裸片内部计算密集型GPU逻辑单元的困难。
韩国科学技术院(KAIST)电气工程学院的金正中教授表示:"随着AI发展推动内存与系统半导体之间的边界消失,技术转型的速度将会加快。"他补充道:"韩国企业必须将生态系统从内存领域扩展到逻辑领域,以抢占下一代HBM市场先机。"
AMD最近发布的Instinct MI430X加速器基于下一代AMD CDNA架构,支持432GB HBM4内存和19.6TB/s的内存带宽。英伟达的"Vera Rubin"超级芯片则采用了不同方案:每个Rubin GPU集成两个最大尺寸的计算芯粒(reticle-sized compute chiplets),搭配8组HBM4堆栈,每颗GPU提供约288GB HBM4,完整超级芯片总计约576GB HBM4。
从这些潜在变革中受益的将是那些在封装和逻辑能力方面实力雄厚的公司,而纯内存厂商可能需要将业务扩展到系统级半导体技术才能保持竞争力。