Loading [MathJax]/jax/output/CommonHTML/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >NeurIPS 2024|新一代芯片电路逻辑综合,可扩展可解释的神经电路生成框架

NeurIPS 2024|新一代芯片电路逻辑综合,可扩展可解释的神经电路生成框架

作者头像
机器之心
发布于 2025-02-14 06:36:15
发布于 2025-02-14 06:36:15
1350
举报
文章被收录于专栏:机器之心机器之心

本论文作者王治海是中国科学技术大学 2020 级硕博连读生,师从王杰教授,主要研究方向为强化学习与学习优化理论及方法、人工智能驱动的芯片设计等。他曾以第一作者在 TPAMI、ICML、NeurIPS、ICLR、AAAI 等顶级期刊与会议上发表论文七篇,一篇入选 ICML 亮点论文(前3.5%),曾获华为优秀实习生(5/400+)、两次国家奖学金(2017和2024)等荣誉。

近日,中科大王杰教授团队(MIRA Lab)和华为诺亚方舟实验室(Huawei Noah's Ark Lab)联合提出了可生成具有成千上万节点规模的神经电路生成与优化框架,具备高扩展性和高可解释性,这为新一代芯片电路逻辑综合工具奠定了重要基础。论文发表在 CCF-A 类人工智能顶级会议 Neural Information Processing Systems(NeurIPS 2024)。

  • 论文标题:Towards Next-Generation Logic Synthesis: A Scalable Neural Circuit Generation Framework
  • 论文地址:https://neurips.cc/virtual/2024/poster/94631

论文概览

逻辑综合(Logic Synthesis, LS)是芯片设计流程中承上启下的关键环节,对芯片设计的效率和质量都具有重要影响。具体来说,逻辑综合旨在生成精准满足给定功能要求(如由电路输入输出对构成的功能真值表)的最优逻辑电路图,是 NP 难问题。为了求解该问题,传统方法主要依赖于硬编码启发式规则,易陷入次优解。

该框架能够精确生成达1200节点规模的电路,该方案为新一代芯片电路逻辑综合工具提供了可行思路与奠定了关键基础。相关技术和能力已整合入华为自研EDA工具。

引言

芯片电路生成的目标是在给定电路功能描述的条件下,生成精准满足电路功能要求且节点数少的逻辑电路图。传统的电路生成方法将高级电路描述语言直接转译为冗余度较高的逻辑电路,这给后续的电路优化带来了较大压力。近期,一些研究通过引入机器学习方法,将电路生成与优化过程有机结合,展现了新一代逻辑综合技术的美好前景。

神经网络架构搜索(Differential Neural Network Architecture Search, DNAS)是一种利用梯度下降法搜索离散结构的技术。已有研究将其应用于生成低冗余电路,展现出了显著的潜力。然而,作者发现现有方法在生成电路时,尤其是在处理大规模电路时,难以实现完全准确的生成,且其性能对超参数极为敏感。

在深入的实验分析后,作者进一步总结出将 DNAS 应用于电路生成的三个主要难点

  1. DNAS 倾向于生成大量的跨层连接,导致网络表达能力受限。
  2. 神经网络结构与电路固有结构存在较大偏差,显著降低了 DNAS 的搜索效率。
  3. 不同输入输出示例数据的学习难度差异显著,现有方法难以学习难例输入输出对。

为系统性地解决这些挑战,作者提出了一种新颖的正则化三角形电路网络生成框架(T-Net),实现了完全准确且可扩展的电路生成。此外,他们还提出了一种由强化学习辅助的演化算法,以实现高效且有效的电路优化。在四个电路评测标准数据集中,实验表明他们的方法能够精确生成多达 1200 节点规模的电路,且其性能显著优于国际逻辑综合竞赛 IWLS 2022 和 2023 中冠亚军方案。

背景与问题介绍

逻辑电路生成介绍

逻辑电路图(And-Inverter Graph, AIG)是逻辑电路的一种表示方式。AIG 为有向无环图,图中的节点代表与逻辑门,图中的边代表逻辑门间的连线,连线上可以添加非门。逻辑电路的大小为 AIG 中的节点数,在逻辑功能不变的情况下,节点数越少表示电路结构越紧凑,这将有助于后续的芯片设计优化。

逻辑电路生成方法将电路的完整输入输出对组合,即功能真值表,建模为训练数据集,并利用机器学习模型自动从数据集中学习生成逻辑电路图 [1,2,3]。在电路设计的实际应用中,要求设计精准满足功能要求的电路结构,因此生成的逻辑电路图必须在训练集上达到 100% 的准确率。

基于 DNAS 的电路生成介绍

神经网络架构搜索(Differential Neural Network Architecture Search, DNAS)[4] 近期被用于生成逻辑电路图 [2,3]。这类方法将一个 L 层,每层 K 个神经元的神经网络建模为 AIG,其中神经元视为逻辑门,神经元之间的连接视为逻辑门之间的电路连接,神经元可以连接到更浅层的任意神经元。对于一个参数化的神经网络,每个神经元都固定执行与逻辑运算,而神经元之间的连接参数是可学习的。

为了能够使用梯度下降法训练网络结构,现有方法会执行 2 种连续化操作:1. 神经元的逻辑运算用等价的可微方式计算,例如 a 与 b 用 a⋅b 代替 [5]。2. 将离散的网络连接方式参数化,并在前向传播时使用 gumbel-softmax [6] 对连接进行连续化和采样。

在训练期间,真值表的每一行输入 - 输出对都作为训练数据输入网络,通过梯度下降法训练连接参数。在测试期间,每个节点的输入根据参数只选择一条连接,从而将网络离散化,模拟实际的逻辑电路。

动机实验 ——DNAS 难以准确生成电路

作者使用上述 DNAS 方法生成电路,生成准确率和电路的规模如图 1(a)所示。结果显示,现有方法难以准确生成电路,且准确率随着电路规模增大而减小。同时,他们发现生成准确率对网络初始化方式及其敏感,方法的鲁棒性较差。

图 1. 观察实验。(a) 现有的 DNAS 方法难以准确生成电路,特别是大规模电路。(b) 输出节点位于网络浅层,跳过了大量可用节点。(c) 实际只有约四分之一的节点被使用 (深色)。(d) 电路各层节点数统计,与普遍使用的方形网络存在差异。

为了进一步分析产生上述挑战的原因,作者进行了详细的实验。

首先,他们发现网络利用率很低。由于节点间的连接可以跨层,因此存在被跳过的节点。图 1(b)展示了经过训练后输出节点位于网络中的位置,可以看到大部分网络层都被跳过,没有连接进最终电路。图 1(c)展示了网络中实际使用到的节点(深色),只有约四分之一的底层节点被使用。过度的跨层连接浪费了大量网络结构,限制了网络的表达能力。

接着,他们发现实际电路结构与网络之间存在结构偏差。他们统计了使用传统方法生成电路的各层节点数,如图 1(d)所示。图中展示了实际电路在底层有着更多节点,而顶层则节点更少,这与普遍使用的方形网络存在差异。

最后,他们发现不同输入 - 输出示例之间存在学习难度差。具体来说,它们在训练时的 loss 收敛速度存在显著差异。这与通常认为的独立同分布(IID)假设并不相同。更多细节可见原论文第 4 章节。

方法介绍

针对以上三个挑战,作者设计了新颖的正则化三角形电路生成框架(T-Net),如图 2 所示。它包含 3 个部分:多标签数据变换、三角形网络结构、正则化损失函数

图 2. 作者提出的电路生成框架图,包含多标签数据变换、三角形网络结构、正则化损失函数三部分。

多标签数据变换:提高可扩展性

随着输入位数的增多,真值表的长度呈指数型增长。为了解决扩展性挑战,作者设计了基于香农定理的多标签训练数据变换。香浓定理证明了一个逻辑函数可以通过一个分解变量分解成两个子函数:

由于真值表是逻辑函数的对偶表示,他们通过以下两步完成数据变换:首先选定一个输入变量,通过固定它的值为 0 或 1,将真值表分解为 2 个长度减半的子表。接着将 2 个子表并列起来,每个输入组合的输出数量翻倍。

通过将真值表合并生成,网络可以学习到更多可复用的结构,从而减少最终的电路节点数。多标签数据变换可以不断减少真值表的输入位数,从而降低学习难度,加速电路生成。

三角形网络结构:减小搜索空间

为了使网络结构更好地适配电路特性,作者设计了三角形的网络结构。具体来说,更宽的底层结构增强了网络的表达能力,而细长的顶层结构减少了利用率低的冗余节点,减小了搜索空间,加速了收敛。同时,实验证明了这种窄顶结构也能有效加速具有大量输出的电路生成。

正则化损失函数:精确生成电路

本论文的方法包含跨层连接正则化和布尔难度识别损失函数两部分。对于跨层连接,作者对可学习的连接分布参数施加权重正则化,鼓励网络连接更临近层的节点。对于较难学习的输入 - 输出示例,他们在损失函数中为这些示例施加更大的权重,以在训练后期加速收敛。

同时,本论文的框架还包含电路优化部分。作者在强化学习优化算子序列调优的基础上,结合了演化算法和 agent 重启技术,避免陷入局部最优解,实现快速有效的电路优化。更多细节可见原文第 5 章节。

实验介绍

本论文实验的数据集包括 4 类开源电路数据集,节点数规模高达 1200,输入、输出数量最高为 16、63 位。

实验包含 4 个部分:1. 在多个电路上评估本论文电路生成和优化方法的准确性和电路性能。2. 评估本论文生成方法针对电路大小的可扩展性。3. 通过消融实验展示本论文方法各部分的效用。4. 验证本论文方法对超参数的鲁棒性。

作者在以下内容中详细介绍实验 1,其余实验请参见原论文的第 6 章节。

电路生成准确率

部分实验结果见图 3,作者在开源电路上对比了他们的方法与其他基于 DNAS 生成方法的准确率。实验结果显示,他们的方法准确率大幅提升,并可准确生成 1200 节点规模的电路。

图 3. 作者提出的 T-Net 相比其他 DNAS 电路生成方法准确率大幅提升。

电路综合效果

部分实验结果见图 4,作者在开源比赛电路上对比了他们的方法与开源逻辑综合工具 ABC 和 IWLS 比赛冠亚军的电路大小。实验结果显示,他们的方法显著优于开源逻辑综合工具 ABC 中的电路生成算子,且超过了 2022 和 2023 年比赛冠亚军的方案。

图 4. 作者提出的电路生成及优化框架效果显著优于开源逻辑综合工具 ABC 中的电路生成算子。

参考文献

[1] International workshop on logic & synthesis contest. https://www.iwls.org/contest/, 2024.

[2] Designing better computer chips. Google DeepMind, 2023, https://deepmind.google/impact/optimizing-computer-systems-with-more-generalized-ai-tools.

[3] Peter Belcak, et al. Neural combinatorial logic circuit synthesis from input-output examples. International conference on machine learning NeurIPS Workshop, 2022.

[4] Hanxiao Liu, et al. Darts: Differentiable architecture search. International conference on machine learning ICLR 2019.

[5] Felix Petersen, et al. Deep differentiable logic gate networks. International conference on machine learning NeurIPS, 2022.

[6] Eric Jang, Shixiang Gu, and Ben Poole. Categorical reparameterization with gumbel-softmax. International conference on machine learning ICLR, 2017.

© THE END

转载请联系本公众号获得授权

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-11-05,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器之心 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
机器学习优化技术:Dropout的Bagging解释与集成规模及丢弃率的方差关系
在深度学习的快速发展中,Dropout技术作为一种简单却强大的正则化方法,已经成为神经网络训练过程中不可或缺的一部分。这项由Geoffrey Hinton团队在2012年提出的技术,从根本上改变了我们对抗过拟合的方式。
用户6320865
2025/08/27
780
机器学习优化技术:Dropout的Bagging解释与集成规模及丢弃率的方差关系
强化学习训练优化关键技术:Dropout的集成学习解释与丢弃率与Bagging规模的数量关系推导
在深度学习模型训练过程中,过拟合问题一直是困扰研究者的主要挑战之一。2012年,深度学习先驱Geoffrey Hinton及其团队在论文《Improving neural networks by preventing co-adaptation of feature detectors》中首次提出了Dropout技术,这一创新性方法通过随机"丢弃"神经网络中的部分神经元,有效缓解了过拟合问题,成为深度学习发展史上的重要里程碑。
用户6320865
2025/08/27
1550
强化学习训练优化关键技术:Dropout的集成学习解释与丢弃率与Bagging规模的数量关系推导
NeurIPS 2018 | 华为联合LSE提出KONG:有序近邻图的核函数
作者:Moez Draief, Konstantin Kutzkov, Kevin Scaman, Milan Vojnovic
机器之心
2018/12/25
5410
NeurIPS 2018 | 华为联合LSE提出KONG:有序近邻图的核函数
FPGA零基础学习:数字电路中的组合逻辑
大侠好,欢迎来到FPGA技术江湖。本系列将带来FPGA的系统性学习,从最基本的数字电路基础开始,最详细操作步骤,最直白的言语描述,手把手的“傻瓜式”讲解,让电子、信息、通信类专业学生、初入职场小白及打算进阶提升的职业开发者都可以有系统性学习的机会。
FPGA技术江湖
2021/03/15
5490
FPGA零基础学习:数字电路中的组合逻辑
90后华裔教授一年连发三篇Nature子刊!首个量子神经网络QuantumFlow开源
---- 新智元报道   作者:姜炜文 编辑:好困 【新智元导读】近日,华裔教授姜炜文再获量子计算革命性突破,在QuantumWeek上开源了首个量子神经网络设计栈,加速了神经网络在量子计算机上的发展。 神经网络是当下计算应用中发展最快,使用最广的机器学习算法。然而,随着应用不断复杂化导致网络结构不断扩大,存储性能瓶颈已逐渐凸显。 在传统计算平台上,N个数字比特只能表示1个N位数据,然而在量子计算中,M个量子比特却同时能表示2^M个数据,并能同时操作这些数据。 量子计算机如此强大的存储与计算能力,使其
新智元
2023/05/22
3640
90后华裔教授一年连发三篇Nature子刊!首个量子神经网络QuantumFlow开源
神经网络“天生”就会驾驶虚拟赛车
众所周知,动物与生俱来就有独特能力和倾向,马出生后几个小时就能走路,鸭子孵化后很快就能游泳,而人类婴儿会自动被脸吸引。大脑已经进化到只需很少或根本没有经验就能承担起这个世界,许多研究人员希望在人工智能中重现这种自然能力。
大数据文摘
2020/02/21
3960
面向可解释的NLP:北大、哈工大等提出文本分类的生成性解释框架
【导语】北大、哈工大和加州大学圣巴巴拉分校在 ACL 2019 的一篇论文中联合提出了一个全新的生成性解释框架,该框架能够对分类策略进行学习,并同时提供细粒度的解释。这项研究还提供了解释因子以及最小化风险训练(minimum risk training)方法,以便进行学习并产生更加合理的解释。
AI科技大本营
2019/08/20
1.5K0
面向可解释的NLP:北大、哈工大等提出文本分类的生成性解释框架
专访 | 诺基亚首席科学家范力欣:用模糊逻辑实现可解释的深度神经网络
深度学习发展到今天,很大程度上依然是一个「实验主导」的、「先有实验结果再找可能解释」的学科。对实验结果的理论解释,争议不断,而且随着时间的推移,研究者们给出的解释也不断在发展——换言之,这是一个尚未出现坚实理论基础的学科。
机器之心
2018/08/07
1.4K0
专访 | 诺基亚首席科学家范力欣:用模糊逻辑实现可解释的深度神经网络
NeurIPS 2019 | 3D神经网络检测阿尔兹海默症
今天就来蹭一下某院士学术造假的热度看一篇用3D神经网络进行阿尔兹海默症检测的论文。
点云乐课堂
2020/05/18
5290
NeurIPS 2018提前看:可视化神经网络泛化能力
作者 Yuanyuan Li:几次转行,本科国际贸易,研究生转向统计,毕业后留在比利时,选择从事农用机械研发工作,主要负责图像处理,实现计算机视觉算法的落地。欣赏一切简单、优雅但有效地算法,试图在深度学习的簇拥者和怀疑者之间找到一个平衡。我追求生活的宽度,这也是为什么在工作之外,我也是机器之心的一名技术分析师。希望在这里和大家分享自己对于技术的理解,通过思想的碰撞拓宽思路和眼界。
机器之心
2018/12/21
6550
NeurIPS 2018提前看:可视化神经网络泛化能力
FBNet/FBNetV2/FBNetV3:Facebook在NAS领域的轻量级网络探索 | 轻量级网络
论文: FBNet: Hardware-Aware Efficient ConvNet Design via Differentiable Neural Architecture Search | CVPR 2019
VincentLee
2021/06/02
1.6K0
高度可扩展的类脑神经拟态硬件,完成了字母识别和人脸识别
基于单晶体管的神经元和突触可大幅降低硬件成本,加速神经拟态硬件的商业化。研究人员使用标准硅 CMOS 工艺制造的单晶体管神经元和突触。它们共同集成在同一个8英寸晶圆片上。
脑机接口社区
2022/08/17
7040
高度可扩展的类脑神经拟态硬件,完成了字母识别和人脸识别
变透明的黑匣子:UCLA 开发可解释神经网络 SNN 预测山体滑坡
内容一览:由于涉及到多种时空变化因素,山体滑坡预测一直以来都非常困难。深度神经网络 (DNN) 可以提高预测准确性,但其本身并不具备可解释性。本文中,UCLA 研究人员引入了 SNN。SNN 具有完全可解释性、高准确性、高泛化能力和低模型复杂度等特点,进一步提高了滑坡风险的预测能力。
HyperAI超神经
2023/08/31
3720
变透明的黑匣子:UCLA 开发可解释神经网络 SNN 预测山体滑坡
学界 | 为数据集自动生成神经网络:普林斯顿大学提出NeST
选自arXiv 机器之心编译 参与:李亚洲、李泽南 普林斯顿大学最近提出的 NeST 方法从新的角度为神经网络优化打开了方向。研究人员提出的新技术可以用「种子」神经网络为基础,对特定数据集自动生成最优化的神经网络,这些生成的模型在性能上超过此前业内最佳水平,同时资源消耗与模型尺寸相比同类模型小了一个数量级。研究人员称,NeST 方法在工作过程中与人类大脑的成长和处理任务方式非常相近。 过去十几年,神经网络变革了大量的研究领域,例如计算机视觉、语音识别、机器人控制等。神经网络通过多层抽象从数据集中提取智能的能
机器之心
2018/05/10
1.3K0
学界 | NeurIPS 2017 论文 2018 年引用量排名揭晓,这里是排名前三的论文解读
AI 科技评论按:12 月上旬,NeurIPS 2018 在加拿大蒙特利尔会展中心(Palais des Congrès de Montréal)成功举办,AI 科技评论对此进行了报道。今年的会议在主题活动、投稿论文数量和参会人数上,相比往年都上了一个新台阶。NeurIPS 2018 吸引了近九千人参加,最终 1010 篇论文被接收,其中,有四篇论文被评为最佳论文,接收的覆盖了十大研究领域。
AI科技评论
2018/12/29
7610
学界 | NeurIPS 2017 论文 2018 年引用量排名揭晓,这里是排名前三的论文解读
用数学方法解密神经网络
在本文中,我们将讨论简单神经网络背后的数学概念。其主要目的是说明在建立我们自己的人工智能模型时,数学是如何发挥巨大作用的。
liuxuewen
2018/10/10
1K0
用数学方法解密神经网络
NeurIPS 2019论文解读:学习一个模仿小鼠视觉系统的CNN
当前的基于 CNN 的图像识别模型确实能在许多任务中得到很高的识别准确率、也得到了许多实际应用,但 CNN 模型的泛化性和鲁棒性仍然远逊于人类视觉 —— 面对经过细微修改的、或者带有噪声的图像,人类的视觉识别几乎不受影响,而 CNN 的识别准确率则可能大幅波动;场景和视角也能显著影响 CNN 的表现,更别提从很少的样本学习物体识别了。
AI科技评论
2019/11/26
4570
17篇论文,详解图的机器学习趋势 | NeurIPS 2019
本文来自德国Fraunhofer协会IAIS研究所的研究科学家Michael Galkin,他的研究课题主要是把知识图结合到对话AI中。
AI科技评论
2019/12/18
1.8K0
斯坦福完全可解释深度神经网络:你需要用决策树搞点事
选自Stanford 机器之心编译 参与:路雪、黄小天、刘晓坤 近日,斯坦福大学计算机科学博士生 Mike Wu 发表博客介绍了他对深度神经网络可解释性的探索,主要提到了树正则化。其论文《Beyond Sparsity: Tree Regularization of Deep Models for Interpretability》已被 AAAI 2018 接收。 论文地址:https://arxiv.org/abs/1711.06178 近年来,深度学习迅速成为业界、学界的重要工具。神经网络再次成为解决图
机器之心
2018/05/10
1.9K0
Google芯片自动布局论文解读
四月初,谷歌大脑团队使用 AI 进行芯片布局的一篇相关研究论文《Chip Placement with Deep Reinforcement Learning》在 ArXiv 上公布。在 Azalia Mirhoseini 这篇 ArXiv 论文中,她和谷歌高级软件工程师 Anna Goldie 表示,对芯片设计进行了足够长时间的学习之后,团队开发的算法可在不到 24 小时的时间内为谷歌 TPU 完成设计,且在功耗、性能、面积都超过了人类专家数周的设计成果。她们认为,理想情况下,新设计出的芯片应该能够很好地满足当今 AI 算法的需求,“如果 AI 能够缩短芯片的设计周期,在硬件与 AI 算法之间建立共生关系,会进一步推动彼此的进步”。
网络交换FPGA
2020/05/26
1.3K0
Google芯片自动布局论文解读
推荐阅读
机器学习优化技术:Dropout的Bagging解释与集成规模及丢弃率的方差关系
780
强化学习训练优化关键技术:Dropout的集成学习解释与丢弃率与Bagging规模的数量关系推导
1550
NeurIPS 2018 | 华为联合LSE提出KONG:有序近邻图的核函数
5410
FPGA零基础学习:数字电路中的组合逻辑
5490
90后华裔教授一年连发三篇Nature子刊!首个量子神经网络QuantumFlow开源
3640
神经网络“天生”就会驾驶虚拟赛车
3960
面向可解释的NLP:北大、哈工大等提出文本分类的生成性解释框架
1.5K0
专访 | 诺基亚首席科学家范力欣:用模糊逻辑实现可解释的深度神经网络
1.4K0
NeurIPS 2019 | 3D神经网络检测阿尔兹海默症
5290
NeurIPS 2018提前看:可视化神经网络泛化能力
6550
FBNet/FBNetV2/FBNetV3:Facebook在NAS领域的轻量级网络探索 | 轻量级网络
1.6K0
高度可扩展的类脑神经拟态硬件,完成了字母识别和人脸识别
7040
变透明的黑匣子:UCLA 开发可解释神经网络 SNN 预测山体滑坡
3720
学界 | 为数据集自动生成神经网络:普林斯顿大学提出NeST
1.3K0
学界 | NeurIPS 2017 论文 2018 年引用量排名揭晓,这里是排名前三的论文解读
7610
用数学方法解密神经网络
1K0
NeurIPS 2019论文解读:学习一个模仿小鼠视觉系统的CNN
4570
17篇论文,详解图的机器学习趋势 | NeurIPS 2019
1.8K0
斯坦福完全可解释深度神经网络:你需要用决策树搞点事
1.9K0
Google芯片自动布局论文解读
1.3K0
相关推荐
机器学习优化技术:Dropout的Bagging解释与集成规模及丢弃率的方差关系
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档