前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >几何非线性| 桁架单元(一)

几何非线性| 桁架单元(一)

作者头像
fem178
发布于 2024-05-10 10:43:47
发布于 2024-05-10 10:43:47
1950
举报

在上篇几何非线性| 应变张量,得到拉格朗日应变表达式为

\mathbf E = \frac{1}{2}(\mathbf H + \mathbf H^T + \mathbf H^T \mathbf H)

用指标记法

E_{ij}=\frac{1}{2}(\frac{\partial u_i }{\partial X_j}+\frac{\partial u_j }{\partial X_i}+ \frac{\partial u_k }{\partial X_j}\frac{\partial u_k }{\partial X_i}) \quad (1)

对于杆系结构,有

\epsilon_{x}=\frac{\partial u }{\partial x}+\frac{1}{2}(\frac{\partial u }{\partial x})^2+ \frac{1}{2}(\frac{\partial v }{\partial x})^2+\frac{1}{2}(\frac{\partial w }{\partial x})^2 \quad (2)

拉格朗日应变适用于描述几何非线性。

▲图1

如图1所示的桁架单元,局部坐标下的位移插值

\begin{split} u(x) &=[1- \frac{x}{l},0,\frac{x}{l},0]\begin{Bmatrix} u_1 \\ v_1 \\ u_2 \\ v_2 \\ \end{Bmatrix} \\ v(x) &=[0,1- \frac{x}{l},0,\frac{x}{l}]\begin{Bmatrix} u_1 \\ v_1 \\ u_2 \\ v_2 \\ \end{Bmatrix} \end{split}
\mathbf u = \mathbf N\mathbf q^e \quad (3)

其中,

\mathbf q^e

是单元节点位移矩阵。

\begin{split} \frac{\partial u }{\partial x} &=u^{'}\\ &= \frac{1}{l}\begin{bmatrix} -1 & 0 & 1 & 0 \\ \end{bmatrix} \begin{Bmatrix} u_1 \\ v_1 \\ u_2 \\ v_2 \\ \end{Bmatrix} \\ &= \mathbf C \mathbf q^e \end{split}
\begin{split} \frac{\partial v }{\partial x} &=v^{'}\\ &= \frac{1}{l}\begin{bmatrix} 0 & -1 & 0 & 1 \\ \end{bmatrix} \begin{Bmatrix} u_1 \\ v_1 \\ u_2 \\ v_2 \\ \end{Bmatrix} \\ &= \mathbf D \mathbf q^e \end{split}

拉格朗日应变

\epsilon = \mathbf C \mathbf q^e + \frac{1}{2} {\mathbf q^e}^T {\mathbf C}^T \mathbf C \mathbf q^e +\frac{1}{2} {\mathbf q^e}^T {\mathbf D}^T \mathbf D \mathbf q^e \quad (4)

虚位移

\delta \mathbf u = \mathbf N \delta \mathbf q^e \quad (5)

虚应变

\begin{split} \delta \epsilon &= \frac{\partial \epsilon }{\partial \mathbf q^e }\delta \mathbf q^e \\ &= \mathbf B(\mathbf q^e) \delta \mathbf q^e \end{split} \quad (6)

这里,(6)用到了变分运算公式

\delta f = \frac{\partial f }{\partial x }\delta x + \frac{\partial f }{\partial y }\delta y

内力虚功为

\begin{split} \delta W_i & = \int_V \delta \boldsymbol {\epsilon}^T \boldsymbol{\sigma} dV \\ & = \delta \mathbf q^{eT} \int_V \mathbf B^T \boldsymbol {\sigma} dV \end{split} \quad (7)

f_i= \int_V \mathbf B^T \boldsymbol {\sigma} dV \quad (8)

\delta W_i = \delta \mathbf q^{eT} f_i \quad (9)

由(6)可得

\begin{split} \bf B &= \frac{\partial \epsilon }{\partial \mathbf q^{e}}\\ &= \frac{\partial \epsilon }{\partial u^{'}}\frac{\partial u^{'} }{\partial \mathbf q^{e}}+ \frac{\partial \epsilon }{\partial v^{'}}\frac{\partial v^{'} }{\partial \mathbf q^{e}}\\ &= (1+u^{'}) \mathbf {C} + v^{'} \mathbf D \\ &= \mathbf C + \mathbf q^{eT} \mathbf C^T\mathbf C + \mathbf q^{eT} \mathbf D^T\mathbf D \end{split} \quad (10)

应力

\begin{split} \sigma &= E(u^{'}+\frac{1}{2}u^{'2} + \frac{1}{2}v^{'2})\\ &= E(\mathbf C \mathbf q^e + \frac{1}{2} {\mathbf q^e}^T {\mathbf C}^T \mathbf C \mathbf q^e +\frac{1}{2} {\mathbf q^e}^T {\mathbf D}^T \mathbf D \mathbf q^e) \end{split} \quad (11)

由(8)(10)(11)可得

f_i= ((1+u^{'}) \mathbf C^T + v^{'} \mathbf D^T )\sigma Al \quad (12)

▲图2

如图2所示的非线性迭代过程,当某一迭代步

i

达到收敛标准时,可以认为处于平衡状态,即

f_i(\mathbf q^i) = f_e(\mathbf q^i) \quad (13)

式中

f_i

是结构内力,

f_e

是外荷载,

\mathbf q^i

i

迭代步时的节点位移。

i+1

迭代步时的内力用一阶泰勒展开

f_i(\mathbf q^{i+1}) \approx f_i(\mathbf q^i) + \frac{\partial f_i }{\partial \mathbf q} \Delta \mathbf q^{i} \quad (14)

由(13)(14)得

\frac{\partial f_i }{\partial \mathbf q} \Delta \mathbf q^{i} = f_e(\mathbf q^{i+1})-f_i(\mathbf u^i) \quad (15)

\mathbf K_T = \frac{\partial f_i }{\partial \mathbf q} \quad (16)

其中,

\mathbf K_T

叫做切线刚度矩阵,(15)可写成

\mathbf K_T \Delta \mathbf q^{i} = f_e(\mathbf q^{i+1})-f_i(\mathbf q^i) \quad (17)
\mathbf K_T

是内力的导数,

f_e(\mathbf q^{i+1})

是新的荷载步下的外荷载。

\begin{split} \mathbf K_T &= \int_V \mathbf B^T \frac{\partial \boldsymbol {\sigma} }{\partial \boldsymbol {\epsilon}} \frac{\partial \boldsymbol {\epsilon}} {\partial \mathbf q} dV + \int_V \frac{\partial \mathbf B^T }{\partial \mathbf q} \boldsymbol {\sigma}dV\\ &= \int_V \mathbf B^T E \mathbf B dV + \int_V \frac{\partial \mathbf B^T }{\partial \mathbf q} \boldsymbol {\sigma}dV\\ &= \mathbf K_{\mathbf q} + \mathbf K_{\boldsymbol {\sigma}}\\ \end{split} \quad (17)

其中

\mathbf K_{\mathbf q}

叫做初始刚度矩阵,

\mathbf K_{\sigma}

叫做几何刚度矩阵。对于桁架单元

\begin{split} \mathbf K_{\mathbf q} &= [(1+u^{'}) \mathbf {C}^T + v^{'} \mathbf D^T][(1+u^{'}) \mathbf {C} + v^{'} \mathbf D]EAl\\ &= [(1+u^{'})^2\mathbf {C}^T\mathbf {C}+ v^{'}(1+u^{'})(\mathbf {D}^T\mathbf {C}+\mathbf {C}^T\mathbf {D} ) + v^{'2}\mathbf {D}^T\mathbf {D}] EAl\\ \end{split} \quad (18)

几何刚度矩阵

\begin{split} \mathbf K_{\boldsymbol {\sigma}} &= \frac{\partial }{\partial u^{'} }(1+u^{'}) \mathbf {C}^T \frac{\partial u^{'} }{\partial \mathbf q } +\frac{\partial }{\partial v^{'} }(v^{'}) \mathbf {D}^T \frac{\partial v^{'} }{\partial \mathbf q } \boldsymbol {\sigma}Al \\ &= (\mathbf {C}^T\mathbf {C}+\mathbf {D}^T\mathbf {D}) \boldsymbol {\sigma}Al \end{split} \quad (19)

其中

\begin{split} \mathbf {C}^T\mathbf {C} &= \frac{1}{l^2} \begin{bmatrix} -1 \\ 0 \\ 1 \\ 0 \\ \end{bmatrix} \begin{bmatrix} -1 & 0 & 1 & 0 \\ \end{bmatrix} \\ &= \frac{1}{l^2} \begin{bmatrix} 1 & 0 & -1 & 0 \\ 0 & 0 & 0 & 0 \\ -1 & 0 & 1 & 0 \\ 0 & 0 & 0 & 0 \\ \end{bmatrix} \\ \end{split}

同理

\begin{split} \mathbf {D}^T\mathbf {D} &= \frac{1}{l^2} \begin{bmatrix} 0 & 0 & 0 & 0 \\ 0 & 1 & 0 & -1 \\ 0 & 0 & 0 & 0 \\ 0 & -1 & 0 & 1 \\ \end{bmatrix} \\ \end{split}

最终得到局部坐标下的切线刚度矩阵为

\begin{split} \mathbf K_T &= \frac{EA}{l} \begin{bmatrix} (1+u^{'})^2 & (v^{'}+v^{'}u^{'}) & -(1+u^{'})^2 & -(v^{'}+v^{'}u^{'}) \\ (v^{'}+v^{'}u^{'}) & v^{'2} & -(v^{'}+v^{'}u^{'}) & -v^{'2} \\ -(1+u^{'})^2 & -(v^{'}+v^{'}u^{'}) & (1+u^{'})^2 & (v^{'}+v^{'}u^{'}) \\ -(v^{'}+v^{'}u^{'}) & -v^{'2} & (v^{'}+v^{'}u^{'}) & v^{'2} \\ \end{bmatrix} \\ &\quad + \frac{\sigma A}{l} \begin{bmatrix} 1 & 0 & -1 & 0 \\ 0 & 1 & 0 & -1 \\ -1 & 0 & 1 & 0 \\ 0 & -1 & 0 & 1 \\ \end{bmatrix} \\ \end{split} \quad (20)

局部坐标和整体坐标下的节点位移转换关系

\mathbf q^e = \mathbf T \mathbf q^g

整体坐标下的切线刚度矩阵

\mathbf K_T^g = \mathbf T^T \mathbf K_T\mathbf T
本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-05-06,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 数值分析与有限元编程 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
Vision Transformer 必读系列之图像分类综述(三): MLP、ConvMixer 和架构分析
https://github.com/open-mmlab/awesome-vit
OpenMMLab 官方账号
2022/02/28
3.1K0
Vision Transformer 必读系列之图像分类综述(三): MLP、ConvMixer 和架构分析
Backbone创新 | 中科大联合百度提出全新Transformer Backbone
最近,Vision Transformer(ViT)在各种计算机视觉任务上取得了显著的性能提升,例如图像分类、目标检测和语义分割。同时,广泛认为,由于Token-Level多Head自注意力(MHSA)模块带来的二次计算复杂度,Vision Transformer的计算成本较高。这种模型复杂性使得视觉Transformer在实际应用中的推理速度是一个关Key 因素时,相对于卷积神经网络(CNN)处于劣势,特别是与高效的CNN变体相比。
集智书童公众号
2023/09/04
4970
Backbone创新 | 中科大联合百度提出全新Transformer Backbone
Mobile-Former | MobileNet+Transformer轻量化模型(精度速度秒杀MobileNet)
最近,Vision Transformer(ViT)展示了全局处理的优势,与cnn相比实现了显著的性能提升。然而,当将计算预算限制在1G FLOPs内时,增益维特减少。如果进一步挑战计算成本,基于depthwise和pointwise卷积的MobileNet和它的扩展仍然占据着一席之地(例如,少于300M的FLOPs图像分类),这又自然而然地提出了一个问题:
集智书童公众号
2021/08/26
2.4K0
MLP is Best?
众所周知,CNN是计算机视觉的首选模型,最近还流行用vision transformer做视觉,谁又能想到用多层感知机(MLPs)去做图像相关的模型呢?《MLP-Mixer: An all-MLP Architecture for Vision》这篇论文就用了基于MLP的框架,依然取得了很高的分类精度。
炼丹笔记
2021/06/15
1.1K0
MLP is Best?
谷歌最新提出无需卷积、注意力 ,纯MLP构成的视觉架构!网友:MLP is All You Need ?
近日,谷歌大脑团队新出了一篇论文,题目为《MLP-Mixer: An all-MLP Architecture for Vision 》,这篇论文是原视觉Transformer(ViT)团队的一个纯MLP架构的尝试。
AI算法修炼营
2021/05/11
9810
谷歌最新提出无需卷积、注意力 ,纯MLP构成的视觉架构!网友:MLP is All You Need ?
Hire-MLP: 华为诺亚提出分层重排MLP,性能高达83.4%
arXiv: 2108.13341:https://arxiv.org/pdf/2108.13341.pdf
AIWalker
2021/09/17
9720
Hire-MLP:  华为诺亚提出分层重排MLP,性能高达83.4%
CNN+Transformer=Better,国科大&华为&鹏城实验室提出Conformer,84.1% Top-1准确率
在卷积神经网络(CNN)中,卷积运算擅长提取局部特征,但在捕获全局特征表示方面还是有一定的局限性。在Vision Transformer中,级联自注意力模块可以捕获长距离的特征依赖,但会忽略局部特征的细节。
CV君
2021/09/03
1.5K0
S2-MLPV2:目前最强的视觉MLP架构,空降榜一,达到83.6% Top-1准确率
随着ResMLP、MLP-Mixer等文章的提出,基于MLP的backbone重新回到了CV领域。在图像识别方面,基于MLP的结构具有较少的假设偏置,但是依旧能够达到与CNN和Vision Transformer相当的性能。
CV君
2021/09/03
6530
全新ViT Backbone | PLG-ViT 同时具有并行局部和全局自注意力的轻量化视觉Transformer
视觉Transformer(ViT)作为卷积神经网络(CNNs)的一种可行替代方案的出现,源于多头自注意力机制的成功应用。与标准卷积相比,多头自注意力机制提供了全局感受野。
集智书童公众号
2023/09/04
1.3K0
全新ViT Backbone | PLG-ViT 同时具有并行局部和全局自注意力的轻量化视觉Transformer
ReViT来袭 | 基于全新残差注意力机制改进ViT架构,增强视觉特征的多样性以及模型的鲁棒性
如今,自动视觉识别系统作为强大的辅助工具,在广泛的视觉相关应用中越来越受欢迎,例如目标检测和跟踪,图像分析和分类,场景分割和理解。这些系统的发展旨在模仿人类大脑将低级视觉特征(例如边缘、颜色或形状)与语义级信息完美相关联的能力,以完成感知识别和识别任务。
集智书童公众号
2024/03/01
1.1K0
ReViT来袭 | 基于全新残差注意力机制改进ViT架构,增强视觉特征的多样性以及模型的鲁棒性
新坑!谷歌提出MLP-Mixer:一种无卷积、无注意力、纯MLP构成的视觉架构
code:https://github.com/google-research/vision_transformer(暂未开源)
AIWalker
2021/05/24
1.3K0
新坑!谷歌提出MLP-Mixer:一种无卷积、无注意力、纯MLP构成的视觉架构
即插即用 | 英伟达提出FAN,鲁棒性和高效性超越ConvNeXt、Swin
Vision Transformer与ConvNets不同的是,Vision Transformer利用Self-Attention对全局关系进行了建模,使其在几个方面具有优势,其中一个最为重要的优势就是对各种Corruptions的鲁棒性。与对干净图像的标准识别任务不同,几项研究表明,Vision Transformer在Corruptions鲁棒性方面始终优于ConvNets。
集智书童公众号
2022/05/26
7730
即插即用 | 英伟达提出FAN,鲁棒性和高效性超越ConvNeXt、Swin
清华大学提出DAT | DCN+Swin Transformer会碰撞出怎样的火花???
Transformer最初是用来解决自然语言处理任务的。它最近在计算机视觉领域显示出巨大的潜力。先锋工作Vision Transformer(ViT)将多个Transformer块堆叠在一起,以处理非重叠的图像patch(即视觉Token)序列,从而产生了一种无卷积的图像分类模型。与CNN模型相比,基于Transformer的模型具有更大的感受野,擅长于建模长期依赖关系,在大量训练数据和模型参数的情况下取得了优异的性能。然而,视觉识别中的过度关注是一把双刃剑,存在多重弊端。具体来说,每个query patch中参与的key数过多会导致较高的计算成本和较慢的收敛速度,并增加过拟合的风险。
集智书童公众号
2022/02/10
1.5K0
清华大学提出DAT | DCN+Swin Transformer会碰撞出怎样的火花???
深度学习应用篇-计算机视觉-图像分类3:ResNeXt、Res2Net、Swin Transformer、Vision Transformer等模型结构、实现、
相较于VGG的19层和GoogLeNet的22层,ResNet可以提供18、34、50、101、152甚至更多层的网络,同时获得更好的精度。但是为什么要使用更深层次的网络呢?同时,如果只是网络层数的堆叠,那么为什么前人没有获得ResNet一样的成功呢?
汀丶人工智能
2023/06/08
2.1K0
深度学习应用篇-计算机视觉-图像分类3:ResNeXt、Res2Net、Swin Transformer、Vision Transformer等模型结构、实现、
DualToken-ViT | 超越LightViT和MobileNet v2,实现更强更快更轻量化的Backbone
近年来,视觉Transformer(ViTs)已经成为各种视觉任务的强大架构,如图像分类和目标检测。这是因为自注意力能够从图像中捕获全局信息,提供充足且有用的视觉特征,而卷积神经网络(CNNs)受到卷积核大小的限制,只能提取局部信息。
AiCharm
2023/09/27
9390
Self-Attention真的是必要的吗?微软&中科大提出Sparse MLP,降低计算量的同时提升性能!
Transformer由于其强大的建模能力,目前在计算机视觉领域占据了重要的地位。在这项工作中,作者探究了Transformer的自注意(Self-Attention)模块是否是其实现图像识别SOTA性能的关键 。为此,作者基于现有的基于MLP的视觉模型,建立了一个无注意力网络sMLPNet。
CV君
2021/09/27
1.1K0
阿里提出QuadTree Transformer | 最轻、最强的Vision Transformer Backbone
Transformer可以通过注意力模块捕获长期依赖关系,并在自然语言处理任务中显示出巨大的成功。近年来,Transformer也被用于计算机视觉任务,用于图像分类、目标检测、语义分割、特征匹配等。通常情况下,图像被分成几个小的patches,这些小patches被Flatten并作为单词符号输入Transformer,以评估注意力得分。而在Token数量上,即图像patch的数量上,Transformer的计算复杂度是二次的。因此,将Transformer应用于计算机视觉应简化所涉及的计算。
集智书童公众号
2022/02/11
1.4K0
阿里提出QuadTree Transformer | 最轻、最强的Vision Transformer Backbone
MoA-Transformer | Swin-Transformer应该如何更好地引入全局信息?
基于Transformer的体系结构在自然语言处理(NLP)领域取得了巨大的成功。受Transformer在语言领域的巨大成功的启发,Vision Transformer被提出,并在ImageNet数据集上取得了优秀的性能。Vision Transformer就像NLP中的word token一样,将图像分割成patches并输入Transformer之中,并通过Transformer的几个multi-head self-attention层来建立远程依赖关系。
集智书童公众号
2022/02/11
9840
MoA-Transformer | Swin-Transformer应该如何更好地引入全局信息?
MLP 又又又升级了!港大&商汤开源首个用于检测与分割任务的MLP架构
本文针对MLP-Mixer等已有方案存在的分辨率相关、不便于向下游任务迁移的问题,提出了一种新颖的CycleFC操作,并由此构建了CycleMLP架构。本文非常漂亮的一个操作:通过对ChannelFC的采样点引入更高感受野升级为CycleFC,提升感受野的同时保持计算量不变。 >>加入极市CV技术交流群,走在计算机视觉的最前沿
AIWalker
2021/07/29
9810
MLP 又又又升级了!港大&商汤开源首个用于检测与分割任务的MLP架构
MLP给视觉研究带来潜在惊喜?近期MLP图像分类工作概览分析
图像分类(image classification)一直都是计算机视觉研究中非常基础且重要的一类任务,在深度学习为主导的近十年中已经普遍继承了通用卷积神经网络(CNN)的基本范式,大部分思路多着眼于不同网络模型的设计和模块创新,少有直接对卷积神经网络本身既定框架的颠覆性工作。Transformer 在自然语言处理任务上获得成功之后,注意力机制(attention)在视觉任务方向也获得很多关注和应用,它们中的大多数工作也被认为是十分有效的性能提升部分。
机器之心
2021/06/08
8760
推荐阅读
Vision Transformer 必读系列之图像分类综述(三): MLP、ConvMixer 和架构分析
3.1K0
Backbone创新 | 中科大联合百度提出全新Transformer Backbone
4970
Mobile-Former | MobileNet+Transformer轻量化模型(精度速度秒杀MobileNet)
2.4K0
MLP is Best?
1.1K0
谷歌最新提出无需卷积、注意力 ,纯MLP构成的视觉架构!网友:MLP is All You Need ?
9810
Hire-MLP: 华为诺亚提出分层重排MLP,性能高达83.4%
9720
CNN+Transformer=Better,国科大&华为&鹏城实验室提出Conformer,84.1% Top-1准确率
1.5K0
S2-MLPV2:目前最强的视觉MLP架构,空降榜一,达到83.6% Top-1准确率
6530
全新ViT Backbone | PLG-ViT 同时具有并行局部和全局自注意力的轻量化视觉Transformer
1.3K0
ReViT来袭 | 基于全新残差注意力机制改进ViT架构,增强视觉特征的多样性以及模型的鲁棒性
1.1K0
新坑!谷歌提出MLP-Mixer:一种无卷积、无注意力、纯MLP构成的视觉架构
1.3K0
即插即用 | 英伟达提出FAN,鲁棒性和高效性超越ConvNeXt、Swin
7730
清华大学提出DAT | DCN+Swin Transformer会碰撞出怎样的火花???
1.5K0
深度学习应用篇-计算机视觉-图像分类3:ResNeXt、Res2Net、Swin Transformer、Vision Transformer等模型结构、实现、
2.1K0
DualToken-ViT | 超越LightViT和MobileNet v2,实现更强更快更轻量化的Backbone
9390
Self-Attention真的是必要的吗?微软&中科大提出Sparse MLP,降低计算量的同时提升性能!
1.1K0
阿里提出QuadTree Transformer | 最轻、最强的Vision Transformer Backbone
1.4K0
MoA-Transformer | Swin-Transformer应该如何更好地引入全局信息?
9840
MLP 又又又升级了!港大&商汤开源首个用于检测与分割任务的MLP架构
9810
MLP给视觉研究带来潜在惊喜?近期MLP图像分类工作概览分析
8760
相关推荐
Vision Transformer 必读系列之图像分类综述(三): MLP、ConvMixer 和架构分析
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档