前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Virtuoso版图小技巧9(连载中...)

Virtuoso版图小技巧9(连载中...)

作者头像
蓝色的天空
发布于 2024-05-21 12:26:48
发布于 2024-05-21 12:26:48
1K0
举报

01

1. Layout XL 自动创建底层cell layout

Top layout 界面中,菜单栏Launch—Configure Physical Hierarchy..

选中对应cell 右键Create/remove VLGen

02

2. 保持float net name名不被取消

菜单栏Connectivity—Layout XL Options;

03

3. 取消shape的sticky property

当手动给某个shape 赋予自定义net name 时,会发现此shape连接到其他net name的shape时,不会自动变成其他shape的net名,需要按如下方式设置,才可以。(勾选Remove....)

04

4. Creat Via时,自定义增加或较少via的数目及via排列的形状

05

5.一次性画出不同层次组合的metal

菜单栏Create—Wiring—Bus,然后按"F3",按下图蓝色框中对应设置进行设置即可。

  • 一次性画出3层重叠的metal;
  • 一次性画出不同层并错开的metal;

结合"Number of Bit"栏与"Custom Layer Pattern" 栏中的内容,请根据需要自行调整,以达到想要的效果。

*以上内容仅供个人学习,切勿用于商业!!

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-05-17,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 模拟版图layout设计 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
正面硬刚GPT-4V!浙大校友开源多模态大模型LLaVA-1.5,130亿参数8个A100一天训完
9月底,OpenAI宣布ChatGPT多模态能力解禁。多模态GPT-4V的神奇能力让众人惊呼:这就是GPT-4.5吧?
新智元
2023/10/08
3.5K0
正面硬刚GPT-4V!浙大校友开源多模态大模型LLaVA-1.5,130亿参数8个A100一天训完
揭秘AI幻觉:GPT-4V存在视觉编码漏洞,清华联合NUS提出LLaVA-UHD
GPT-4V 的推出引爆了多模态大模型的研究。GPT-4V 在包括多模态问答、推理、交互在内的多个领域都展现了出色的能力,成为如今最领先的多模态大模型。
机器之心
2024/04/12
1430
揭秘AI幻觉:GPT-4V存在视觉编码漏洞,清华联合NUS提出LLaVA-UHD
​浅析多模态大模型的前世今生
前段时间 ChatGPT 进行了一轮重大更新:多模态上线,能说话,会看图!微软发了一篇长达 166 页的 GPT-4V 测评论文,一时间又带起了一阵多模态的热议,随后像是 LLaVA-1.5、CogVLM、MiniGPT-5 等研究工作紧随其后,到处刷屏。大模型的多模态能力到底是怎么来的?今天来分享一下多模态相关的一些工作和个人的理解。
腾讯技术工程官方号
2023/11/01
3.8K0
​浅析多模态大模型的前世今生
赶超Gemini Pro,提升推理、OCR能力的LLaVA-1.6太强了
去年 4 月,威斯康星大学麦迪逊分校、微软研究院和哥伦比亚大学研究者共同发布了 LLaVA(Large Language and Vision Assistant)。尽管 LLaVA 是用一个小的多模态指令数据集训练的,却在一些样本上展示了与 GPT-4 非常相似的推理结果。10 月,LLaVA-1.5 重磅发布,通过对原始 LLaVA 的简单修改,在 11 个基准上刷新了 SOTA。
机器之心
2024/02/06
7800
赶超Gemini Pro,提升推理、OCR能力的LLaVA-1.6太强了
GPT-4V开源平替!清华浙大领衔,LLaVA、CogAgent等开源视觉模型大爆发
然而,如果想在不影响性能的前提下,寻求具有成本效益的替代方案,开源方案就蕴藏着无限可能。
新智元
2024/01/04
1.2K0
GPT-4V开源平替!清华浙大领衔,LLaVA、CogAgent等开源视觉模型大爆发
字节提出 LLaVA-OneVision :首个突破多模态模型性能瓶颈的开源大型模型 !
人工智能的核心愿望之一就是构建具有大规模视觉语言模型的通用助手[67]。LLaVA-OneVision是一个开源模型,致力于推进构建具有大规模视觉语言助手的(LLaVA)[83]研究,该助手可以适应各种指令,在野外完成各种计算机视觉任务。作为一种既省钱又高效的做法,它通常通过连接视觉编码器与大规模语言模型(LLM)来实现。
AIGC 先锋科技
2024/08/14
1.5K0
字节提出 LLaVA-OneVision :首个突破多模态模型性能瓶颈的开源大型模型 !
GPT-4V惨败!CV大神谢赛宁新作:V*重磅「视觉搜索」算法让LLM理解力逼近人类
Sam Altman最近在世界经济论坛上发言,称达到人类级别的AI很快就会降临。
新智元
2024/01/23
2770
GPT-4V惨败!CV大神谢赛宁新作:V*重磅「视觉搜索」算法让LLM理解力逼近人类
LeCun谢赛宁首发全新视觉多模态模型,等效1000张A100干翻GPT-4V
大多数人类知识,也都是通过视觉、听觉、触觉、味觉和嗅觉等感官体验,以及与物理世界的交互所获得。
新智元
2024/06/27
2630
LeCun谢赛宁首发全新视觉多模态模型,等效1000张A100干翻GPT-4V
视觉语言模型是偏向于纹理还是形状,我们能否对它们进行引导
今天为大家介绍的是来自Janis Keuper团队的一篇论文。在过去几年里,视觉语言模型(VLMs)极大地改变了计算机视觉模型的格局,为我们开启了一系列激动人心的新应用,从zeroshot图像分类到图像描述再到视觉问题回答。与纯视觉模型不同,它们通过语言提示提供了一种直观的方式来访问视觉内容。这类模型的广泛适用性促使我们去探究它们是否也与人类视觉一致——特别是,它们在多模态融合中是否采纳了人类的视觉偏见,或者它们仅仅继承了纯视觉模型的偏见。一个重要的视觉偏见是纹理与形状之间的偏好,或者说是局部信息对全局信息的主导性。在这篇论文中,作者研究了一系列流行的VLMs中的这种偏见。有趣的是,作者发现VLMs通常比它们的视觉编码器更倾向于形状,这表明通过文本在多模态模型中对视觉偏见进行了一定程度的调整。
DrugAI
2024/04/19
2220
视觉语言模型是偏向于纹理还是形状,我们能否对它们进行引导
在视觉提示中加入「标记」,微软等让GPT-4V看的更准、分的更细
最近一段时间,我们见证了大型语言模型(LLM)的显著进步。特别是,生成式预训练 Transformer 或 GPT 的发布引领了业界和学术界的多项突破。自 GPT-4 发布以来,大型多模态模型 (LMM) 引起了研究界越来越多的兴趣,许多工作致力于构建多模态 GPT-4。
机器之心
2023/10/24
4110
在视觉提示中加入「标记」,微软等让GPT-4V看的更准、分的更细
将多模态大模型稀疏化,3B模型MoE-LLaVA媲美LLaVA-1.5-7B
对于大型视觉语言模型(LVLM)而言,扩展模型可以有效提高模型性能。然而,扩大参数规模会显著增加训练和推理成本,因为计算中每个 token 都会激活所有模型参数。
机器之心
2024/02/06
2500
将多模态大模型稀疏化,3B模型MoE-LLaVA媲美LLaVA-1.5-7B
GPT-4V连小学生都不如?最新基准测试错误率竟高达90%:红绿灯认错、勾股定理也不会
GPT-4被吹的神乎其神,作为具备视觉能力的GPT-4版本——GPT-4V,也被大众寄于了厚望。
新智元
2023/11/02
3690
GPT-4V连小学生都不如?最新基准测试错误率竟高达90%:红绿灯认错、勾股定理也不会
MLLM首篇综述 | 一文全览多模态大模型的前世、今生和未来
近年来,大型语言模型取得了显著进展。通过扩大数据大小和模型大小,这些LLM提高了惊人的涌现能力,通常包括上下文学习(ICL)、指令跟随和思想链(CoT)。尽管LLM在大多数自然语言处理(NLP)任务中表现出了令人惊讶的Zero/Few-Shot推理性能,但它们天生对视觉“视而不见”,因为它们只能理解离散文本。
集智书童公众号
2023/09/04
13.5K0
MLLM首篇综述 | 一文全览多模态大模型的前世、今生和未来
多模态LLM多到看不过来?先看这26个SOTA模型吧
当前 AI 领域的关注重心正从大型语言模型(LLM)向多模态转移,于是乎,让 LLM 具备多模态能力的多模态大型语言模型(MM-LLM)就成了一个备受关注的研究主题。
机器之心
2024/02/06
4680
多模态LLM多到看不过来?先看这26个SOTA模型吧
熔岩羊驼LLaVA来了:像GPT-4一样可以看图聊天,无需邀请码,在线可玩
机器之心报道 编辑:赵阳 尽管 LLaVA 是用一个小的多模态指令数据集训练的,但它在一些示例上展示了与多模态模型 GPT-4 非常相似的推理结果。 GPT-4 的识图能力什么时候能上线呢?这个问题目前依然没有答案。 但研究社区已经等不及了,纷纷自己上手 DIY,其中最火的是一个名为 MiniGPT-4 的项目。MiniGPT-4 展示了许多类似于 GPT-4 的能力,例如生成详细的图像描述并从手写草稿创建网站。此外,作者还观察到 MiniGPT-4 的其他新兴能力,包括根据给定的图像创作故事和诗歌,提供
机器之心
2023/05/01
2790
熔岩羊驼LLaVA来了:像GPT-4一样可以看图聊天,无需邀请码,在线可玩
超越GPT-4!华人团队爆火InstructBLIP抢跑看图聊天,开源项目横扫多项SOTA
---- 新智元报道   编辑:桃子 拉燕 【新智元导读】碾压GPT-4识图能力的多模态生成模型来了。华人团队最新提出的InstructBLIP在多项任务上实现SOTA。 GPT-4看图聊天还没上线,就已经被超越了。 近来,华人团队开源了多模态基础模型InstructBLIP,是从BLIP2模型微调而来的模型。 BLIP家族中增加了一个新成员:InstructBLIP 据介绍,InstructBLIP模型更擅长「看」、「推理」和「说」,即能够对复杂图像进行理解、推理、描述,还支持多轮对话等。 比如
新智元
2023/05/15
5660
超越GPT-4!华人团队爆火InstructBLIP抢跑看图聊天,开源项目横扫多项SOTA
多模态LLM视觉推理能力堪忧,浙大领衔用GPT-4合成数据构建多模态基准
【导读】LLM的数学推理能力缺陷得到了很多研究的关注,但最近浙大、中科院等机构的学者们提出,先进模型在视觉推理方面同样不足。为此他们提出了一种多模态的视觉推理基准,并设计了一种新颖的数据合成方法。
小腾资讯君
2024/08/08
2280
中科大 & 阿里 开源 GeoGPT4V 数据集,提升了各种类型和模型的跨模态几何能力!
随着大型语言模型(LLM)展现出强大的性能,其在解决数学问题方面的应用变得越来越流行(Toshniwal等人,2024年;Wang等人,2023年;Gou等人,2023年;Wang等人,2023a年)。先前的研究表明,人类在没有视觉辅助的情况下解决几何问题时,准确性会显著降低(Chen等人,2021年)。因此,将图像中的视觉信息整合进来对于准确解决这类数学问题至关重要,这需要多模态大型语言模型(MLLM)的视觉感知能力。然而,即使是现在可用的最好的MLLM,Gemini 在几何能力方面仍显著落后于人类表现。因此,研究行人正急于探索提升MLLM几何能力的方法。
AIGC 先锋科技
2024/07/08
8750
中科大 & 阿里 开源 GeoGPT4V 数据集,提升了各种类型和模型的跨模态几何能力!
马毅LeCun谢赛宁曝出多模态LLM重大缺陷!开创性研究显著增强视觉理解能力
Sam Altman在各种场合都提到,大语言模型的多模态能力,是未来AI技术能够造福人类的最亟待突破的领域。
新智元
2024/01/18
3560
马毅LeCun谢赛宁曝出多模态LLM重大缺陷!开创性研究显著增强视觉理解能力
首个基于Mamba的MLLM来了!模型权重、训练代码等已全部开源
近年来,多模态大型语言模型(MLLM)在各个领域的应用取得了显著的成功。然而,作为许多下游任务的基础模型,当前的 MLLM 由众所周知的 Transformer 网络构成,这种网络具有较低效的二次计算复杂度。为了提高这类基础模型的效率,大量的实验表明:(1)Cobra 与当前计算效率高的最先进方法(例如,LLaVA-Phi,TinyLLaVA 和 MobileVLM v2)具有极具竞争力的性能,并且由于 Cobra 的线性序列建模,其速度更快。(2)有趣的是,封闭集挑战性预测基准的结果显示,Cobra 在克服视觉错觉和空间关系判断方面表现良好。(3)值得注意的是,Cobra 甚至在参数数量只有 LLaVA 的 43% 左右的情况下,也取得了与 LLaVA 相当的性能。
机器之心
2024/04/26
3910
首个基于Mamba的MLLM来了!模型权重、训练代码等已全部开源
推荐阅读
正面硬刚GPT-4V!浙大校友开源多模态大模型LLaVA-1.5,130亿参数8个A100一天训完
3.5K0
揭秘AI幻觉:GPT-4V存在视觉编码漏洞,清华联合NUS提出LLaVA-UHD
1430
​浅析多模态大模型的前世今生
3.8K0
赶超Gemini Pro,提升推理、OCR能力的LLaVA-1.6太强了
7800
GPT-4V开源平替!清华浙大领衔,LLaVA、CogAgent等开源视觉模型大爆发
1.2K0
字节提出 LLaVA-OneVision :首个突破多模态模型性能瓶颈的开源大型模型 !
1.5K0
GPT-4V惨败!CV大神谢赛宁新作:V*重磅「视觉搜索」算法让LLM理解力逼近人类
2770
LeCun谢赛宁首发全新视觉多模态模型,等效1000张A100干翻GPT-4V
2630
视觉语言模型是偏向于纹理还是形状,我们能否对它们进行引导
2220
在视觉提示中加入「标记」,微软等让GPT-4V看的更准、分的更细
4110
将多模态大模型稀疏化,3B模型MoE-LLaVA媲美LLaVA-1.5-7B
2500
GPT-4V连小学生都不如?最新基准测试错误率竟高达90%:红绿灯认错、勾股定理也不会
3690
MLLM首篇综述 | 一文全览多模态大模型的前世、今生和未来
13.5K0
多模态LLM多到看不过来?先看这26个SOTA模型吧
4680
熔岩羊驼LLaVA来了:像GPT-4一样可以看图聊天,无需邀请码,在线可玩
2790
超越GPT-4!华人团队爆火InstructBLIP抢跑看图聊天,开源项目横扫多项SOTA
5660
多模态LLM视觉推理能力堪忧,浙大领衔用GPT-4合成数据构建多模态基准
2280
中科大 & 阿里 开源 GeoGPT4V 数据集,提升了各种类型和模型的跨模态几何能力!
8750
马毅LeCun谢赛宁曝出多模态LLM重大缺陷!开创性研究显著增强视觉理解能力
3560
首个基于Mamba的MLLM来了!模型权重、训练代码等已全部开源
3910
相关推荐
正面硬刚GPT-4V!浙大校友开源多模态大模型LLaVA-1.5,130亿参数8个A100一天训完
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档