今年OFC上有一个关于LPO的workshop,主题是“Will Linear Pluggable Optics (LPO) Have a Future Beyond 112G?”,讨论比较激烈,非常精彩。不同公司的观点比较对立,形成了不同的阵营。小豆芽这里做一个简单整理,方便大家参考。
自从去年Arista在OFC大会报告上推广LPO的概念,带retimer(ODSP)的传统可插拔光模块与LPO的链路对比,如下图所示。传统可插拔光模块中在Tx/Rx端各有一个retimer,对高速信号进行补偿。而LPO通过消除模块中的retimer芯片,在功耗、延迟、成本等方面优于传统光模块,由此受到了业界的青睐。
对于“LPO能否工作到单波200Gbps速率的场景”这一问题,形成了旗帜鲜明的两个阵营。Arista和Macom两家公司作为LPO的拥趸,相信LPO在200G情况下仍然可以工作,Macom也推出了相关的电芯片。对于链路损耗上的挑战,则需要引入LRO(Liner retimed optics)的概念,即需要在Tx端引入retimer。而持否定观点的公司包括Google、Meta、华为和阿里等,认为单波200G必须引入retimer, 采用传统的DSP方案。 Meta对200G/lane的场景进行了时域仿真,LPO情况下OMA需要达到5dBm才能满足KP4 FEC对BER的要求,即便使用concat FEC,OMA也需要达到0dBm, 考虑到链路上的margin,链路损耗无法满足200G/lane的要求。而对于LRO或者传统DSP方案,都可以满足BER<2.4e-4的要求。
谷歌通过频率分析的方法,得到了与Meta类似的结论,如下图所示。Chip to module(C2M)的loss为25dB, LPO与LRO方案相比,SNR需要引入8dB的代价,而OMA需要引入4dB的代价。
华为的fellow大佬Davide对LPO持否定态度,对其功耗、时延、成本的优势逐一进行了反驳,比较犀利。考虑功耗的时候,需要查看包含Host IC在内的整个链路功耗。LPO场景下虽然省去了模块中SerDes和ODSP的功耗,但是由于对链路loss的要求更为苛刻,需要在host端对信号进行补偿,其在host端SerDes的功耗增加较多。因此在相同的场景下,LPO的功耗反而不如传统DSP方案。以XSR SerDes链路为例,传统DSP方案的功耗约为10-12pJ, 而LPO方案并没有体现出功耗上的优势,反而功耗更大,需要10-14pJ。由于模块中没有SerDes和ODSP芯片对信号进行补偿,有20dB的链路代价(link penalty), host端需要更多的tap对信号进行补偿,这会消耗更多的能量,如下图所示。
Davide认为在DSP芯片上去进行功耗的优化,会比使LPO链路正常工作来得简单。另外,当信号速率增加到200G时,SerDes的功耗比100G的情况增加约30%。关于功耗,Davide给出了一个形象的比喻,DSP好比一辆汽车,它在等红绿灯和高速行驶的时候, 消耗了相同的能量。当前的链路中没有因为汽车处于不同状态而进行相应的优化与调整。
对于latency上的优势,Davide则给出了一个简单的对比,如下表所示。随着光纤距离的增加,retimer芯片自身的延迟在整个链路中的比例越来越小。
对于LPO成本上的优势,Davide也给出了不一样的看法。DSP芯片的成本会优于线性模拟芯片,DSP芯片则可以利用内部的link进行自检测,适合大批量生产,进而降低芯片成本。
经过一年多的发酵,大家对于LPO的认识更加深刻,更加全面系统地思考LPO模块究竟带来了什么。100G LPO目前看起来可以工作,但是200G场景下则需要在Tx端引入retimer才可以满足链路损耗的要求。LPO的主要挑战包括:1)需要与Switch芯片一起联合调试,链路中缺乏诊断点,如下图所示。这一点可能需要在模拟芯片中添加对应的feature。
2)标准尚未完全同一,不同厂家的LPO模块是否能相互替换。 3)目前还未在数据中心中大规模应用,从用户的角度,需要对LPO模块与传统光模块进行分类管理,用户也不希望针对不同场景对模块进行配置。 关于LPO是否能工作到100G以上的场景这一问题,OFC会场上最终持肯定与否定态度的人数相当。可能需要更多的时间来回答这一问题,LPO方案还处于早期发展阶段,能否被市场接受,不仅仅是技术本身的问题。LPO方案的出发点是降低功耗,如何在提高信道速率的同时,继续有效地降低功耗,是留给产业界的一个难题。需要从整个链路上系统地思考这一问题,采用更高节点的数字芯片,降低链路上的损耗,抑或是采用新型的光器件,最终胜出的是cost-effective的系统型解决方案。