前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >ASIC 数字设计:概述和开发流程

ASIC 数字设计:概述和开发流程

作者头像
AsicWonder
发布于 2023-09-01 12:27:23
发布于 2023-09-01 12:27:23
1.2K1
举报

概述

集成电路是由硅晶圆(wafer)切割出来的芯片(die)组成的。每个晶圆可以切割出数百个芯片。

ASIC是指针对特定应用而设计的集成电路(Application Specific Integrated Circuit),与通用的存储器、微处理器等不同。ASIC有以下几种类型:

  1. 全定制ASIC(Full-Custom ASIC):这种类型的ASIC是完全手工设计的,没有使用预先设计好的逻辑门,而是自己绘制芯片的版图(layout)。
  2. 标准单元ASIC(Standard Cell ASIC):这种类型的ASIC是使用预先设计好的逻辑门,例如AND,NOR等,来构建电路。这些逻辑门被称为标准单元(Standard Cell)。标准单元ASIC的优点是设计者可以节省时间、金钱和风险,因为标准单元库已经过设计和测试。每个标准单元都是用全定制的方法设计的,可以进行单独的优化。

设计ASIC时,需要平衡以下几个目标:

  1. 速度(Speed):指芯片运行的时钟频率和响应时间,影响芯片的性能和效率。
  2. 面积(Area):指芯片占用的硅晶圆面积,影响芯片的成本和产量。
  3. 功耗(Power):指芯片运行时消耗的电能,影响芯片的可靠性和散热。
  4. 上市时间(Time to Market):指从设计开始到产品上市所需的时间,影响芯片的竞争力和市场占有率。

为了实现这些目标,设计者需要熟悉CMOS工艺,即使用互补金属氧化物半导体(Complementary Metal Oxide Semiconductor)制造芯片的技术。

CMOS工艺

1.1 CMOS工艺

CMOS工艺是目前最常用的芯片制造技术,它利用互补金属氧化物半导体(Complementary Metal Oxide Semiconductor)来构建电路。CMOS电路由NMOS和PMOS两种类型的MOSFET晶体管组成。

1.2 MOSFET晶体管

MOSFET是金属氧化物半导体场效应晶体管(Metal Oxide Semiconductor Field Effect Transistor)的简称,它是一种电压控制的开关器件,也是数字集成电路设计中的基本单元。MOSFET的结构和工作原理如下图所示。

CMOS工艺利用NMOS和PMOS两种MOSFET来实现高密度、复杂的数字集成电路,主要用于信号处理。CMOS工艺的优点是低功耗、高速度和易于集成等。在数字IC中,MOSFET可以看作是简单的开关。例如:CMOS反相器只需要一个PMOS和一个NMOS晶体管。

  • 当输入为逻辑“0”时,PMOS导通,NMOS截止,输出负载电容被充电,输出为逻辑“1”。
  • 当输入为逻辑“1”时,PMOS截止,NMOS导通,输出负载电容被放电,输出为逻辑“0”。

逻辑门的输出负载电容由两部分组成:本征电容和外部电容(走线、扇出等)。PMOS和NMOS的载流子分别是空穴和电子。由于电子的迁移率比空穴高出一倍多,导致输出上升时间和下降时间不对称。

为了平衡这种差异,通常让PMOS的宽长比(W/L)比NMOS的大一些。这样可以使PMOS和NMOS具有相近的驱动能力(drive strength)。

在标准单元库中,晶体管的长度L一般是固定的,而宽度W则根据不同门的驱动需求进行调整。

1.3 CMOS集成电路的功耗

CMOS集成电路的功耗主要有以下三个来源:

  1. 动态功耗:由于电路负载电容在开关过程中的充放电而产生。给定频率f,动态功耗为:负载电容* Vdd * Vdd * f
  2. 短路功耗:由于PMOS和NMOS在开关过程中同时导通而形成短路路径而产生。
  3. 静态功耗:由于晶体管存在漏电流而产生。

1.4 CMOS传输门

将PMOS和NMOS并联起来就形成了传输门。传输门可以将输入信号传递到输出端。

1.5 时序元件

在CMOS中,可以通过反馈回路来实现逻辑值的存储,这样的元件被称为时序元件。最简单的时序元件就是两个反相器相互连接。基于这种结构,可以有两种基本的时序元件,分别是:

1、锁存器(Latch):锁存器是在两个反相器之间加入一个传输门来控制数据的输入和输出。

  • 当传输门的控制信号为逻辑“1”时,传输门打开,输入信号“D”可以传递到输出端。
  • 当控制信号为逻辑“0”时,传输门关闭,输出端保持原来的值不变。

2、触发器(Flip-Flop):触发器是由两个锁存器串联而成的。第一个锁存器叫做主锁存器(Master latch),第二个锁存器叫做从锁存器(Slave latch)。

在这种情况下,传输门的控制信号就是时钟信号(Clock)。时钟信号经过反相后送到从锁存器的传输门。

  • 当时钟信号为高电平时,主锁存器的传输门打开,输入信号“D”可以被两个反相器锁定。同时,由于时钟信号反相,从锁存器的传输门关闭,输出信号“Q”保持原来的值不变。
  • 当时钟信号为低电平时,从锁存器的传输门打开,输出信号“Q”更新为主锁存器锁定的值。此时,输出信号“Q”与输入信号“D”的变化无关。

由于触发器只在时钟信号由低变高的上升沿更新数据,所以这种类型的触发器叫做正边沿触发器。如果触发器只在时钟信号由高变低的下降沿更新数据,则叫做负边沿触发器。

芯片设计的过程

要设计芯片,首先需要有一个清晰的设计目标和功能需求(Idea)。

在ASIC设计流程中,这个Idea会不断地转化为不同的表现形式。

ASIC设计流程的第一步就是把Idea写成详细的规格说明书(Specifications)。规格说明书包括:

  • 设计的目标和约束条件。
  • 设计的功能描述。
  • 设计的性能指标,如速度和功耗。
  • 设计的面积预估。
  • 设计的制造工艺和设计方法选择。

传统意义上,ASIC设计流程如下所示:

1、给出设计的结构和功能分解(Structural and Functional Description)。这意味着要确定使用什么样的设计架构,例如 RISC / CISC,ALU,流水线等,并且将整个系统划分为若干个子模块。每个子模块的功能也要在规格说明书中明确定义。

2、确定了系统层次结构之后,就要开始用具体的逻辑元素来实现设计的功能。这一步称为RTL级逻辑设计(Register Transfer Level)。RTL设计通常用硬件描述语言(Verilog、VHDL)来编写。硬件描述语言(HDL)是一种用于描述数字系统的语言,可以用来表示逻辑门、微处理器、存储器、触发器等任何级别的硬件。在这个阶段,要对设计进行功能验证,以确保设计符合规格说明书的要求。

3、功能验证

4、逻辑综合(Logic synthesis),使用Design Compiler (Synopsys),Genus(Cadence)等综合工具,将 RTL代码转换为优化后的门级网表(Gate Level Netlist)。综合工具需要输入RTL代码和标准单元库(Standard cell library),输出门级网表。标准单元库是集成电路设计中常用的基本逻辑模块的集合。综合工具在进行逻辑综合时,要考虑各种约束(Constraints),如时序、面积、可测性和功耗等。综合工具会根据不同的优化策略和代价函数(cost function),来寻找满足约束条件的最佳实现方案。逻辑综合完成之后,会得到一个只包含结构信息而不包含行为信息的门级网表。

5、对门级网表进行功能验证,以检查是否与RTL代码一致。

6、门级网表的物理实现(Physical Implementation)。这一步是将门级网表映射到芯片上的具体位置和连线。物理实现需要考虑制造工艺对布局布线(Layout)的限制条件,如DRC规则等。物理实现步骤包括三个子步骤:Floor planning->Placement->Routing。物理实现的输出是GDSII文件。这是芯片制造厂所需要的文件格式。物理实现可以由IC Compiler (Synopsys)、Innovus (Cadence)等软件完成。

7、进行物理验证(Physical Verification),以检查是否满足DRC规则、LVS规则等。

8、时序分析。对于任何有特定时钟频率要求的设计,都必须进行时序分析(timing analysis)。我们需要检查设计是否满足规格说明书中的时序要求。这是通过静态时序分析(Static Timing Analysis)工具完成的,例如Primetime(Synopsys)。它会检查设计中所有的时序路径,来验证设计是否存在时序违规(timing violations)。例如:建立时间(setup)、保持时间(hold)等。

9、在物理实现和时序分析都通过之后,设计就可以交付给制造厂进行制造(Fabrication)了。制造完成之后,芯片会被切割、封装和测试。

最后,值得思考的是,我们是否一定要遵从这种瀑布式开发流程???能否尽可能地流程左移。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2023-06-30,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 数字芯片实验室 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
1 条评论
热度
最新
左移,是特别是方式?
左移,是特别是方式?
回复回复点赞举报
推荐阅读
编辑精选文章
换一批
人工智能大语言模型微调技术:SFT 监督微调、LoRA 微调方法、P-tuning v2 微调方法、Freeze 监督微调方法
SFT(Supervised Fine-Tuning)监督微调是指在源数据集上预训练一个神经网络模型,即源模型。然后创建一个新的神经网络模型,即目标模型。目标模型复制了源模型上除了输出层外的所有模型设计及其参数。这些模型参数包含了源数据集上学习到的知识,且这些知识同样适用于目标数据集。源模型的输出层与源数据集的标签紧密相关,因此在目标模型中不予采用。微调时,为目标模型添加一个输出大小为目标数据集类别个数的输出层,并随机初始化该层的模型参数。在目标数据集上训练目标模型时,将从头训练到输出层,其余层的参数都基于源模型的参数微调得到。
汀丶人工智能
2023/10/11
8.8K0
人工智能大语言模型微调技术:SFT 监督微调、LoRA 微调方法、P-tuning v2 微调方法、Freeze 监督微调方法
大模型SFT全解析:从原理到工具链,解锁AI微调的核心密码
监督微调(Supervised Fine-Tuning, SFT)是一种在预训练语言模型(LLM)基础上,使用高质量标注数据进一步优化模型以适应特定任务或领域的技术。其核心是通过输入-输出对的标注数据(如指令、问题与答案),调整模型参数,使其在特定场景下生成更符合人类期望的响应。
AI浩
2025/05/21
4860
大模型SFT全解析:从原理到工具链,解锁AI微调的核心密码
人工智能大语言模型微调技术:SFT 监督微调、LoRA 微调方法、P-tuning v2 微调方法、Freeze 监督微调方法
SFT(Supervised Fine-Tuning)监督微调是指在源数据集上预训练一个神经网络模型,即源模型。然后创建一个新的神经网络模型,即目标模型。目标模型复制了源模型上除了输出层外的所有模型设计及其参数。这些模型参数包含了源数据集上学习到的知识,且这些知识同样适用于目标数据集。源模型的输出层与源数据集的标签紧密相关,因此在目标模型中不予采用。微调时,为目标模型添加一个输出大小为目标数据集类别个数的输出层,并随机初始化该层的模型参数。在目标数据集上训练目标模型时,将从头训练到输出层,其余层的参数都基于源模型的参数微调得到。
汀丶人工智能
2023/07/16
17.6K0
人工智能大语言模型微调技术:SFT 监督微调、LoRA 微调方法、P-tuning v2 微调方法、Freeze 监督微调方法
北航&北大 | 提出统一微调框架,整合前沿微调方法,可支持100多种LLMs的微调!
当前开源社区中有许多的大模型,为了能够将其适配至不同应用场景,基本上都需要精心的调整模型参数。为了能够实现对大模型的高效微调,本文作者提出了一个统一的大模型微调框架:LLAMAFACTORY,该框架整合了一系列前沿的高效微调方法,支持对100多种大模型的微调。
ShuYini
2024/03/26
8690
北航&北大 | 提出统一微调框架,整合前沿微调方法,可支持100多种LLMs的微调!
人工智能基础——模型部分:模型介绍、模型训练和模型微调 !!
本文将从什么是模型?什么是模型训练?什么是模型微调?三个问题,来展开介绍人工智能基础的模型部分。
JOYCE_Leo16
2024/03/19
10.4K0
人工智能基础——模型部分:模型介绍、模型训练和模型微调 !!
LLama2详细解读 | Meta开源之光LLama2是如何追上ChatGPT的?
今天分享Meta的Llama 2: Open Foundation and Fine-Tuned Chat Models:LLAMA2:开源的基础和微调后的聊天大语言模型。Meta开源模型在除了代码能力外都追平或者超过了ChatGPT的水平,它做了很多工作提升大模型的能力和安全性。其利用更高质量的数据来训练模型,同时利用强化学习迭代多次来优化模型效果是使其追上ChatGPT的最强大的法宝。同时目前如何对大模型进行强化学习放出来的文章也不多,本文给出非常多的RLHF实验和结果给大家进行参考,方便社区后续进行相关实验。总之LLaMA2是大模型开源之光,它以一己之力促进了整个LLM开源社区的发展,后续可能在其基础上也会有真正的更大更好的中文开源大模型出来,它的经验也值得大家去学习。
技术人生黄勇
2024/07/19
2190
LLama2详细解读 | Meta开源之光LLama2是如何追上ChatGPT的?
SAFT框架横空出世 !27.8%有害数据自动清零,大模型微调开启自动驾驶式安全升级 !
大型语言模型(LLMs)已成为构建针对个人需求和目的的定制化模型的强大基础。为了实现定制化,一个预训练的LLM通常会经过有监督的微调,这个过程允许LLMs根据任务特定的数据进行自适应和专业化。虽然微调使LLMs在定制数据集上的性能得到提高,但在微调数据中出现有害样本时,也存在安全问题。例如,考虑一个场景,一个对话 Agent 正在社交媒体平台上的用户交互中进行微调。这些交互通常包含有善意的和可能有害的内容,如仇恨言论、错误信息或不当语言。因此,将包含令人反感内容的微调数据应用于LLMs可能会对模型的行为产生不利影响。
AIGC 先锋科技
2025/02/21
1390
SAFT框架横空出世 !27.8%有害数据自动清零,大模型微调开启自动驾驶式安全升级 !
用神经架构搜索给LLM瘦身,模型变小,准确度有时反而更高
大型语言模型(LLM)的一个主要特点是「大」,也因此其训练和部署成本都相当高,如何在保证 LLM 准确度的同时让其变小就成了非常重要且有价值的研究课题。
机器之心
2024/06/17
2200
用神经架构搜索给LLM瘦身,模型变小,准确度有时反而更高
恐怖如斯!GSU | 提出VB-LoRA,仅需LoRA参数的0.4%,就超越了LoRA微调效果
随着大模型应用的不断推广,面对不同应用场景模型的定制化需求也不断增涨。但参数高效微调 (PEFT) 方法,比如LoRA及其变体会产生大量的参数存储和传输成本。为此,本文提出了一种超级参数高效微调方法:VB-LoRA,该方法采用“分而共享(divide-and-share)”范式,通过向量库进行全局参数共享,在保证模型性能的同时,实现了极高的参数效率。在对 Llama2-13B 模型进行微调时,VB-LoRA 仅使用了 LoRA 存储参数的 0.4%就超过了LoRA微调效果,可见实力强悍。
ShuYini
2024/05/30
4750
恐怖如斯!GSU | 提出VB-LoRA,仅需LoRA参数的0.4%,就超越了LoRA微调效果
大型语言模型的幻觉研究|减轻及避免大模型LLM幻觉(二)
“ 本文及上一篇综述了最近关于语言模型中幻觉问题的研究进展,主要集中在ChatGPT发布后的研究。文章讨论了如何评估、追踪和消除幻觉,并探讨了现有挑战和未来方向。希望本文能为对LLM幻觉问题感兴趣的朋友提供有价值的资源,促进LLM的实际应用。”
技术人生黄勇
2024/07/19
8380
大型语言模型的幻觉研究|减轻及避免大模型LLM幻觉(二)
【LLM训练系列03】关于大模型训练常见概念讲解
随着LLM学界和工业界日新月异的发展,不仅预训练所用的算力和数据正在疯狂内卷,后训练(post-training)的对齐和微调等方法也在不断更新。下面笔者根据资料整理一些关于大模型训练常见概念解释。
致Great
2024/12/20
7110
【LLM训练系列03】关于大模型训练常见概念讲解
LLM大语言模型算法特训,带你转型AI大语言模型算法工程师
大语言模型(LLM)是一种利用机器学习技术来理解和生成人类语言的人工智能模型。 对于希望从各个方面增强通信和数据处理并实现自动化的企业和机构而言,LLM 具有极高的价值。 LLM 使用基于神经网络的模型,通常运用自然语言处理(NLP)技术来处理和计算其输出。
用户11063488
2024/04/07
1820
Llama2推理RTX3090胜过4090,延迟吞吐量占优,但被A800远远甩开
大型语言模型 (LLM) 在学界和业界都取得了巨大的进展。但训练和部署 LLM 非常昂贵,需要大量的计算资源和内存,因此研究人员开发了许多用于加速 LLM 预训练、微调和推理的开源框架和方法。然而,不同硬件和软件堆栈的运行时性能可能存在很大差异,这使得选择最佳配置变得困难。
机器之心
2023/12/28
1.1K0
Llama2推理RTX3090胜过4090,延迟吞吐量占优,但被A800远远甩开
大模型可解释性你能理得清吗?综述已来,一文解你疑惑
大规模语言模型在自然语言处理方面展现出令人惊讶的推理能力,但其内在机理尚不清晰。随着大规模语言模型的广泛应用,阐明模型的运行机制对应用安全性、性能局限性和可控的社会影响至关重要。
机器之心
2023/09/27
1.2K0
大模型可解释性你能理得清吗?综述已来,一文解你疑惑
每日论文速递 | 华为提出一个提高LLM翻译能力的新训练范式
摘要:本文研究了在机器翻译(MT)任务中增强大型语言模型(LLM)翻译能力的策略。本文提出了一种新颖的范式,包括三个阶段:使用大量单语数据进行二次预训练,使用跨行文本格式文档进行持续预训练,以及利用源语言一致性指导进行监督微调。以往对 LLM 的研究主要集中在各种监督微调(SFT)策略上,但其效果有限。传统的机器翻译方法依赖于大量的平行双语数据,而我们的范例则强调了使用较小的高质量双语数据集的重要性。我们认为,重点应放在预训练过程中增强 LLM 的跨语言对齐能力,而不是在 SFT 过程中仅仅依赖大量双语数据。使用 Llama2 模型进行的实验结果,尤其是单语增强后的中文-Llama2,证明了 LLMs 翻译能力的提高。我们的方法的重大贡献在于第二阶段:该阶段只需不到 1B 的训练数据,因此我们的方法非常高效。此外,在第三阶段,我们观察到设置与源语言一致的指令有利于监督微调过程。实验结果表明,我们的方法超越了之前的工作,与 NLLB-54B 和 GPT3.5-text-davinci-003 等模型相比,尽管参数数量只有 7B 或 13B,但却取得了卓越的性能。这一成就确立了我们的方法在机器翻译领域的先驱地位。
zenRRan
2024/04/11
1.3K0
每日论文速递 | 华为提出一个提高LLM翻译能力的新训练范式
大模型微调新范式:当LoRA遇见MoE
左侧:原始版本的LoRA,权重是稠密的,每个样本都会激活所有参数;右侧:与混合专家(MoE)框架结合的LoRA,每一层插入多个并行的LoRA权重(即MoE中的多个专家模型),路由模块(Router)输出每个专家的激活概率,以决定激活哪些LoRA模块。
zenRRan
2024/03/02
2.8K0
大模型微调新范式:当LoRA遇见MoE
2024年大语言模型的微调
一个LLM的生命周期包含多个步骤,下面将讨论这个周期中最活跃、最密集的部分之一 -- fine-tuning(微调)过程。
charlieroro
2024/03/08
4640
2024年大语言模型的微调
一文读懂大型语言模型微调技术挑战与优化策略
LLMs (Large Language Models )正在引领人工智能技术的新浪潮。这种先进的 AI 通过利用统计模型分析海量数据,学习单词和词组之间的复杂模式,从而模拟人类认知和语言能力。LLMs 的强大功能已引起了众多头部企业以及科技爱好者的浓厚兴趣,他们纷纷竞相采用这些由人工智能驱动的创新解决方案,旨在提高运营效率、减轻工作负担、降低成本支出,并最终激发出更多创造业务价值的创新想法。
Luga Lee
2024/11/01
1870
一文读懂大型语言模型微调技术挑战与优化策略
无需RLHF显著提升GPT-4/Llama2性能,北大团队提出Aligner对齐新范式
大语言模型(LLMs)虽展现出了强大的能力,但也可能产生不可预测和有害的输出,例如冒犯性回应、虚假信息和泄露隐私数据,给用户和社会造成伤害。确保这些模型的行为与人类意图和价值观相对齐,是一个紧迫的挑战。
机器之心
2024/02/26
3030
无需RLHF显著提升GPT-4/Llama2性能,北大团队提出Aligner对齐新范式
改善大型语言模型的3种简单方法
大型语言模型(LLMs)已经成为现实。随着最近发布的Llama 2,开源LLMs正在接近ChatGPT的性能,并且经过适当调整,甚至可以超越它。
磐创AI
2023/11/27
7490
改善大型语言模型的3种简单方法
推荐阅读
人工智能大语言模型微调技术:SFT 监督微调、LoRA 微调方法、P-tuning v2 微调方法、Freeze 监督微调方法
8.8K0
大模型SFT全解析:从原理到工具链,解锁AI微调的核心密码
4860
人工智能大语言模型微调技术:SFT 监督微调、LoRA 微调方法、P-tuning v2 微调方法、Freeze 监督微调方法
17.6K0
北航&北大 | 提出统一微调框架,整合前沿微调方法,可支持100多种LLMs的微调!
8690
人工智能基础——模型部分:模型介绍、模型训练和模型微调 !!
10.4K0
LLama2详细解读 | Meta开源之光LLama2是如何追上ChatGPT的?
2190
SAFT框架横空出世 !27.8%有害数据自动清零,大模型微调开启自动驾驶式安全升级 !
1390
用神经架构搜索给LLM瘦身,模型变小,准确度有时反而更高
2200
恐怖如斯!GSU | 提出VB-LoRA,仅需LoRA参数的0.4%,就超越了LoRA微调效果
4750
大型语言模型的幻觉研究|减轻及避免大模型LLM幻觉(二)
8380
【LLM训练系列03】关于大模型训练常见概念讲解
7110
LLM大语言模型算法特训,带你转型AI大语言模型算法工程师
1820
Llama2推理RTX3090胜过4090,延迟吞吐量占优,但被A800远远甩开
1.1K0
大模型可解释性你能理得清吗?综述已来,一文解你疑惑
1.2K0
每日论文速递 | 华为提出一个提高LLM翻译能力的新训练范式
1.3K0
大模型微调新范式:当LoRA遇见MoE
2.8K0
2024年大语言模型的微调
4640
一文读懂大型语言模型微调技术挑战与优化策略
1870
无需RLHF显著提升GPT-4/Llama2性能,北大团队提出Aligner对齐新范式
3030
改善大型语言模型的3种简单方法
7490
相关推荐
人工智能大语言模型微调技术:SFT 监督微调、LoRA 微调方法、P-tuning v2 微调方法、Freeze 监督微调方法
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档