前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >基于MIMO的悬臂梁振动响应有限元计算原理及应用

基于MIMO的悬臂梁振动响应有限元计算原理及应用

作者头像
用户7573907
发布于 2020-07-20 06:46:55
发布于 2020-07-20 06:46:55
3K0
举报

本文介绍了梁的有限元动力学分析基本原理,并基于梁有限元模型,运用MIMO(多输入多输出)算法,计算梁在多个输入力下的振动响应。单自由度质量-弹簧-阻尼系统的振动动力学方程的计算和求解是深入理解本文的基础。

01

目的:计算悬臂梁在多个输入下的振动响应

图1是一个悬臂梁及其有限元参数,在中间位置和悬臂远端均受动态力,求整个悬臂梁在两个(或多个)力下的振动响应(位移,速度,或加速度)。

图1

要进行振动响应计算,首先要建立动力学方程,这就要借助有限元的方法。

02

自由状态梁的动力学方程有限元计算原理

本文算法是将图1中的梁划分为36个梁单元。本节仅针对3个梁单元的有限元计算进行举例。

图2是Euler-Bernoulli梁单元的简化模型,梁单元左侧点(Node1)受到f1的力和T1的扭矩,产生v1的位移及theta1的扭转;同样右侧点(Node2)受到f2的力和T2的扭矩,产生v2的位移及theta2的扭转。

图2

构造整个梁模型的动力学方程,最重要的是组装M(质量),C(阻尼),K(刚度)矩阵(学过单自由度质量-弹簧-阻尼系统振动的同学一定不会感到陌生)。整个过程如同将大象装冰箱里一样,分为流畅的三步:

一,翻书查找梁单元理论公式:

理论上(太多公式,不作介绍

),该梁单元的质量矩阵Me,刚度矩阵Ke (上标e代表element)如图3,为了简单方便,将阻尼矩阵Ce设置成比例阻尼(如图3)。那么梁单元的动力学方程就如图3红字部分。

图3

二,将多个单元矩阵组装成整个梁矩阵:

将3个梁单元组装起来,也就是将Me, Ke, Ce 组装成M123(图4),K123(图5),C123(比例阻尼,组装好M123, K123后直接算)。

图4

图5

三,基于组装好的矩阵建立动力学方程:

组装质量矩阵M,刚度矩阵K,是建立动力学方程的关键。图6中红框内的矩阵取阻尼矩阵C=0时,求取矩阵的特征值和特征向量,即该梁自由状态下的共振频率和振型(包括位移和转角)。

图6

对图6中红框内的矩阵求逆,即外力和响应的传递函数矩阵,如图7红框内矩阵。

图7

03

悬臂梁的动力学方程有限元计算原理

本文要介绍的是实际应用中比较常见的约束方式:悬臂梁。怎样在模型中加入约束条件呢?方法就在矩阵的构造内:

因为Node0处,位移和转角都是0,所以原先8*8的矩阵(图8),可以不用考虑前2行前2列,变成了6*6的矩阵(图9)。

图8

图9

同样的,对图9中该6*6的矩阵取阻尼矩阵C=0时,求取矩阵的特征值和特征向量,即该悬臂梁的共振频率和振型(包括位移和转角)。

对该矩阵求逆,得到悬臂状态下,外力和响应的传递函数矩阵,如图10右侧6*6矩阵。

图10

更进一步,我们可以忽略各点扭矩的影响,那么该矩阵可以再次从6*6缩减到3*3矩阵,如图11。

图11

04

悬臂梁的动力学方程有限元计算算例

用有限元法算出了36*36的传递函数矩阵后,可求出在多个力下的悬臂梁振动响应,如图12。

图12

请注意,该36*36矩阵是包含频率的复数矩阵,形如图13。举例:蓝色表示f=1Hz时的36*36的复数矩阵;红色表示f=2Hz时的36*36的复数矩阵;绿色表示f=3Hz时的36*36的复数矩阵……

图13

将所有的第1行第1列复数矩阵沿着频率方向连起来,即图13中的蓝色线,即是h1,1

将所有的第1行第6列复数矩阵沿着频率方向连起来,即图13中的黑色线,即是h1,6

……

这些连线即是传递函数(复数),包含幅值比和相位差(如图14,15)。

图14

图15

如果将36*36矩阵某一行或者某一列传递函数复数的虚部依次画出来(例如:h1,1; h1,2; h1,3; …… h1,36),则可以从中看到振型,如图16。

图16

图17是根据图9中的矩阵算出的特征向量(归一化后),特征向量即振型。可以看出,该振型和图16一致。

图17

图18

在f18,f36力下的整个悬臂梁振动响应计算步骤,依然是帅气的三步(参见图18):

一,对f18, f36进行傅立叶变换,得到复数输入力f18,f36 (包含幅值和相位信息);

二,将传递函数矩阵(复数)乘以输入力f18,f36(复数),得到梁上各点响应频谱(复数);

三,将梁上各点响应频谱(复数)反傅立叶变换,得到梁上各点时域振动响应。

05

悬臂梁振动响应计算结果及总结

以下直接给出计算结果:

图19

1)图19:

f18=1*sin(2*pi*30*t); f36=1*sin(2*pi*30*t)。这两个力在梁的不同位置,虽然同相位,但是起到互相抵消的作用。合成振动仍为第2阶振型。

图20

2)图20:

f18=1*sin(2*pi*30*t); f36=1*sin(2*pi*30*t+pi)。这两个力在梁的不同位置,相位相反,合力起到放大作用。合成振动仍为第2阶振型。

图21

3)图21:

f18=1*sin(2*pi*30*t); f36=1*sin(2*pi*166*t)。这两个力激发起来悬臂梁的两个固有频率,所以振动特性体现了两个振型的叠加。

总结:结构在多个动态力下的振动响应受到两大因素影响:

1)激励力:包括力的位置,频率,幅值,相位的综合影响。

2)结构本身的动力学特性:特别是共振频率,及共振频率下结构振型。

06

悬臂梁案例的引申应用

前面简单介绍了梁的振动响应计算方法。可能大家会问这样的问题:为什么长度取 0.628m,为什么将其划分为36个梁单元?

我们不妨看如下的动画(图22):

图22

将该梁卷成一圈,正好是半径为0.1m的圆。同时36个单元,每个单元对应的是 10度。

图23

图23是圆内的多个激励力。图24,图25分别是圆的某阶共振频下的振型。

图24

图25

至此,点到为止~

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2018-10-31,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 信号分析应用及算法 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
CPU、GPU、TPU、NPU等到底是什么?
NPU即神经网络处理器(Neural network Processing Unit)
Jasonangel
2021/05/28
5.3K0
IEEE特稿:神经形态芯片注定为深度学习而生,否则就是自取灭亡
【新智元导读】研究者声称神经形态芯片相比传统的CPU,耗能更小。但现在的问题是,研究者需要证明,神经形态芯片能够从研究实验室转移到商业应用中吗。用航空业打比方的话,神经形态计算的研究一直陷在模仿鸟的扑翼的水平,而研究者显然不承认。 跨越鸿沟:当下,关于神经形态计算有很多炒作 科技圈内的人在谈到某一技术从早期采纳者跃升到大众市场时,常会使用的一个描述是“跨越鸿沟”(crossing the chasm)。在神经形态计算中,现在,一个关于跨越鸿沟的案例研究正在进行中。 这一方法模仿的是人类大脑中神经元的连接和沟
新智元
2018/03/28
9190
IEEE特稿:神经形态芯片注定为深度学习而生,否则就是自取灭亡
业界 | 英特尔推出神经形态测试芯片Loihi:可自学习
选自Forbes 机器之心编译 参与:刘晓坤 英特尔正开始尝试用所谓的「神经形态芯片」模拟真实大脑的运作方式。 英特尔Loihi神经形态测试芯片 芯片巨头英特尔的研究实验室开发出一种新型芯片,即 In
机器之心
2018/05/10
5800
【了不起的芯片2】盘点40+公司的深度学习处理器
【新智元导读】本文列举并介绍了现有的几乎全部深度学习处理器,是值得收藏的超全资料。 Nvidia GPU 英伟达最新的 GPU NVIDIA TESLA V100 单精度浮点性能达到15 TFlops,在新的 Tensor core 架构达到 120 TFlops,是FP16乘法或FP32累加,或适应ML。 英伟达将8个board包装在他们的 DGX-1 for 960 Tensor TFlops Nvidia Volta - 架构看点 这篇文章对 Volta 架构做了一些分析 SoC 英伟达提供 NVID
新智元
2018/03/22
1K0
业界 | 谷歌TPU之后还有高通,人工智能芯片竞赛已经展开
选自Wired 作者:Cade Metz 机器之心编译 参与:黄小天、李泽南 作为机器学习的领军人物,Yann LeCun(杨立昆)曾在 25 年前开发过一块名为 ANNA 的人工智能芯片。而现在,
机器之心
2018/05/07
8450
业界 | 谷歌TPU之后还有高通,人工智能芯片竞赛已经展开
详解AI加速器(四):GPU、DPU、IPU、TPU…AI加速方案有无限种可能
选自Medium作者:Adi Fuchs 机器之心编译 在上一篇文章中,前苹果工程师、普林斯顿大学博士 Adi Fuchs 聚焦 AI 加速器的秘密基石:指令集架构 ISA、可重构处理器等。在这篇文章中,我们将跟着作者的思路回顾一下相关 AI 硬件公司,看看都有哪些公司在这一领域发力。 这是本系列博客的第四篇,主要介绍了 AI 加速器相关公司。全球科技行业最热门的领域之一是 AI 硬件, 本文回顾了 AI 硬件行业现状,并概述相关公司在寻找解决 AI 硬件加速问题的最佳方法时所做的不同赌注。 对于许多 AI
机器之心
2022/03/04
1.9K0
【深度】AI 时代,谷歌 TPU 难以颠覆 GPU 市场优势
【新智元导读】智能时代芯片市场格局一变再变,谷歌推出 TPU 引发新一轮讨论,谁将领跑芯片市场?看几个典型产品:TPU 仅供谷歌内部使用;IBM TrueNorth 离商用还有距离;中国的寒武纪是国际首个深度学习专用处理器芯片,市场表现值得期待;概率芯片以微小计算精度为代价实现能耗降低,是芯片市场一匹黑马;FPGA 凭其性价比有望占领市场;目前 GPU 用户覆盖率最广。 智能时代就要到来,芯片市场格局一变再变。两个典型例子:引领处理器市场 40 多年的英特尔 2015 年底收购完 Altera,今年 4 月
新智元
2018/03/22
1.1K0
【深度】AI 时代,谷歌 TPU 难以颠覆 GPU 市场优势
英特尔AI产品事业部CTO专访:谷歌TPU表明纯GPU不是最佳架构
【新智元导读】去年,英特尔以 4 亿美元收购深度学习芯片研发公司 Nervana,将其作为公司深度学习的核心,并围绕Nervana 在今年年初成立统一的人工智能部门。日前,该部门负责人 Amir 接受新智元专访,针对英伟达GPU和谷歌的TPU谈到了他对目前AI芯片市场格局的看法和相关技术发展态势。他认为,深度学习模型在某种程度上可能朝着暴力计算发展。深度学习将向两大方向发展:一是越来越强的计算力,一是整合异构计算。谷歌 TPU 和 TensorFlow 的优势只是暂时的,英特尔正在开发我们认为比 TPU 第
新智元
2018/03/27
6840
英特尔AI产品事业部CTO专访:谷歌TPU表明纯GPU不是最佳架构
【AI硅脑】超越GPU,FPGA、ASIC和更智能的手机
【新智元导读】本文从云服务、on-device 和 hybrid 三个角度分析AI硬件的进步,以及各大芯片公司、巨头科技公司以及初创企业和研究机构如何将 CPU、GPU、FPGA 和 ASIC用于 AI 任务。 树莓派(Raspberry Pi)对计算机爱好者来说是最令人兴奋的发展之一。在世界各地,人们使用树莓派来自动化制造啤酒,制作机器人,改革STEM教育,等等。这些都是值得称赞的追求。同时,微软在用树莓派做什么呢?他们创造了一个攻击松鼠的喷水机器人。 微软的机器学习和优化小组里,一名研究人员看到松鼠从他
新智元
2018/03/23
1.3K0
【不含CPU,超越GPU 1000x】Wave公司发布数据流处理架构DPU
【新智元导读】Wave Computing 在日前举行的高性能芯片峰会Hot Chips上介绍了他们的数据流处理器产品DPU(Dataflow Processing Unit),加速神经网络训练,号称速度是GPU的1000x,训练GoogleNet 42万图像/秒。同时,DPU使用了不含CPU的架构,他们认为,数据流架构是有效训练高性能神经网络的唯一方式。 要建立起一家成功的芯片初创公司可不是件容易的事情,但有资本支持的Wave Computing,却在一块很小但很重要的市场——AI训练芯片——牢牢站稳了脚
新智元
2018/03/22
1.2K0
【不含CPU,超越GPU 1000x】Wave公司发布数据流处理架构DPU
解读主流的人工智能芯片有什么不同?
 在全球规模最大的2018北美消费电子产品展上,参展的科技企业超过4000家,包括高通、英伟达、英特尔、LG、IBM、百度在内的业界科技巨头纷纷发布了各自最新的人工智能芯片产品和战略,作为本届展会的最
机器人网
2018/04/18
1.1K0
解读主流的人工智能芯片有什么不同?
业界| 芯片之争:CPU、GPU、DSP、NPU,到底哪个更适用于深度学习?
编者按:为保证内容的专业性,本文已邀深度学习芯片领域专家把关审核过,作者铁流。 日前,Intel称将于2017年推出针对深度学习市场的CPU Knights Mill。据Intel宣传,Knights Mill 能充当主处理器,可以在不配备其它加速器或协处理器高效处理深度学习应用。可以说,继中国寒武纪和星光智能一号、IBM的真北、谷歌的 TPU,以及英伟达专门为人工智能定制的GPU之后,Intel也加入该领域的竞争。 那么,这多深度学习处理器都有什么特点,又有什么优势和劣势呢? | CPU、GPU:用轿车运
AI科技评论
2018/03/07
4.1K0
业界| 芯片之争:CPU、GPU、DSP、NPU,到底哪个更适用于深度学习?
谷歌TPU将取代GPU?英特尔、英伟达怕了吗?
随着人工智能尤其是机器学习应用大量涌现,处理器市场群雄争霸。各厂商纷纷推出新的芯片产品,都想领跑智能时。但问题是,谁会担当这个角色呢?
科技云报道
2022/04/12
1.2K0
谷歌TPU将取代GPU?英特尔、英伟达怕了吗?
柯洁中盘再败!谷歌乘AlphaGo之势强推TPU,与英伟达必有一战
【新智元导读】人机对战第二场,柯洁认输,AlphaGo中盘获胜将比分改写为2:0,TPU可谓是本次AlphaGo升级的秘密武器。 由此,许多人认为,谷歌与英伟达必有一战。谷歌已经开始向中国市场上的企业和开发者兜售自己的TPU,加上TensorFlow和谷歌云等标志性业务。这对在深度学习上获利丰厚的英伟达来说可能并不是一件好事。 柯洁又输了,与AlphaGo的对决比分被改写为0:2 ! AlphaGo变得更强大了,此前DeepMind和谷歌团队在新闻发布会上说,。除了算法上的改进之外,他们也特别强调了谷歌云和
新智元
2018/03/28
8610
柯洁中盘再败!谷歌乘AlphaGo之势强推TPU,与英伟达必有一战
【AI芯片格局最全分析】国内AI芯片百家争鸣,何以抗衡全球技术寡头
来源:中国科学院自动化研究所 作者:吴军宁 中科院自动化所集成中心 【新智元导读】本文分析了国内外AI芯片的格局和特点,作者认为,在AI芯片领域,国外芯片巨头占据了绝大部分市场份额,不论是在人才聚集还是公司合并等方面,都具有绝对的领先优势。而国内AI初创公司则又呈现百家争鸣、各自为政的纷乱局面;特别是每个初创企业的AI芯片都具有自己独特的体系结构和软件开发套件,既无法融入英伟达和谷歌建立的生态圈,又不具备与之抗衡的实力。 如果说 2016 年 3 月份 AlphaGo 与李世石的那场人机大战只在科技界和
新智元
2018/05/29
8040
深度学习的三种硬件方案ASICs、FPGAs 和GPU,开发者需要知道什么?
今年三月AlphaGo和李世石的“世纪之战”炒红了深度学习—— AlphaGo采用了人工神经网络技术,充分挖掘了深度学习的潜力。简单来说,深度学习是一个包含了许多层级数据处理的神经网络,以自动化方式组
GPUS Lady
2018/04/02
8210
深度学习的三种硬件方案ASICs、FPGAs 和GPU,开发者需要知道什么?
【全球AI芯片榜单】中国大陆企业无缘前十,华为、寒武纪、地平线扛鼎突围!
---- 新智元报道 来源:Compass Intelligence、中科院自动化所等 编辑:克雷格、肖琴 【新智元导读】最近,Compass Intelligence对全球100多家AI芯片企业进行了排名,结果显示,前十名中中国大陆没有一家企业上榜,华为(海思)进入第12,寒武纪和地平线分别为第22和24位。 最近,调研公司Compass Intelligence出了一份扎“芯”的报告。 这份报告对全球100多家AI芯片企业进行了排名(AI Chipset Index),结果显示:前十名中, 没有
新智元
2018/05/29
1.1K0
在定制硬件上实现DNN近似算法,一文概述其过去、现在与未来
来自社交媒体和物联网等多个渠道的可用数字数据(如图像、视频和语音)呈指数级增长,这驱动了对高性能数据分析的需求。与其它机器学习算法相比,深度神经网络(DNN)在过去十年里实现了巨大的准确率提升。它的应用领域很广,如图像分类、目标检测、自动驾驶和无人机导航等。其中卷积神经网络和循环神经网络这两种深度神经网络尤其受欢迎。CNN 在学习空间特征方面很强,而 RNN 则更适合涉及时间序列的问题。
机器之心
2019/04/29
9940
在定制硬件上实现DNN近似算法,一文概述其过去、现在与未来
AI芯片发展的前世今生
现代电子产品和设备在诸如通信 、娱乐 、安全和 医疗保健等许多方面改善了我们的生活质量 ,这主要是因为现代微电子技术的发展极大地改变了人们的日常工作和互动方式。在过去几十年中 ,摩尔定 律一直是通过不断缩小芯片上的器件特征尺寸来提高计算能力 ,带来了电子产品诸如更高速度 、更低成本和更小功耗等优势。Gordon Moore 最初的观察是 芯片中的晶体管数量大约每 2 年增加 1 倍 ,David House 进一步预测 ,由于更多更快的晶体管 ,芯片性能将每 18 个月翻一番。虽然 Gordon Moore 的预测已经成功超过 50 年 ,但是今天的硅 CMOS 技术正在 接近其尺寸的基本物理极限,摩尔定律的延续性已经变得越来越具有挑战性。
AI科技大本营
2020/02/20
1.1K0
AI芯片发展的前世今生
业界 | 剖析用于深度学习的硬件:GPU、FPGA、ASIC和DSP
选自Medium 作者:Eugenio Culurciello 机器之心编译 参与:Rick R、吴攀 在这篇文章中,作者Eugenio Culurciello简述了几类硬件设计,希望能为大家更快的运行神经网络提供洞见。 我喜欢深度学习... 深度学习最近取得的成功势不可挡:从图像分类和语音识别到图片标注、理解视觉场景、视频概述、语言翻译、绘画,甚至是生成图像、语音、声音和音乐! …而我想让它运行得飞快! 其成果令人震惊,因而需求就会增长。比如你是谷歌/ Facebook / Twitter 的工作人员
机器之心
2018/05/07
1.3K0
推荐阅读
CPU、GPU、TPU、NPU等到底是什么?
5.3K0
IEEE特稿:神经形态芯片注定为深度学习而生,否则就是自取灭亡
9190
业界 | 英特尔推出神经形态测试芯片Loihi:可自学习
5800
【了不起的芯片2】盘点40+公司的深度学习处理器
1K0
业界 | 谷歌TPU之后还有高通,人工智能芯片竞赛已经展开
8450
详解AI加速器(四):GPU、DPU、IPU、TPU…AI加速方案有无限种可能
1.9K0
【深度】AI 时代,谷歌 TPU 难以颠覆 GPU 市场优势
1.1K0
英特尔AI产品事业部CTO专访:谷歌TPU表明纯GPU不是最佳架构
6840
【AI硅脑】超越GPU,FPGA、ASIC和更智能的手机
1.3K0
【不含CPU,超越GPU 1000x】Wave公司发布数据流处理架构DPU
1.2K0
解读主流的人工智能芯片有什么不同?
1.1K0
业界| 芯片之争:CPU、GPU、DSP、NPU,到底哪个更适用于深度学习?
4.1K0
谷歌TPU将取代GPU?英特尔、英伟达怕了吗?
1.2K0
柯洁中盘再败!谷歌乘AlphaGo之势强推TPU,与英伟达必有一战
8610
【AI芯片格局最全分析】国内AI芯片百家争鸣,何以抗衡全球技术寡头
8040
深度学习的三种硬件方案ASICs、FPGAs 和GPU,开发者需要知道什么?
8210
【全球AI芯片榜单】中国大陆企业无缘前十,华为、寒武纪、地平线扛鼎突围!
1.1K0
在定制硬件上实现DNN近似算法,一文概述其过去、现在与未来
9940
AI芯片发展的前世今生
1.1K0
业界 | 剖析用于深度学习的硬件:GPU、FPGA、ASIC和DSP
1.3K0
相关推荐
CPU、GPU、TPU、NPU等到底是什么?
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档