前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >神奇的δ-函数

神奇的δ-函数

作者头像
用户7506105
发布于 2021-10-27 08:28:40
发布于 2021-10-27 08:28:40
1.1K0
举报
文章被收录于专栏:碎片学习录碎片学习录

大学时曾上过一门电工学的课,这也是为数不多能真正意义上学懂的专业课之一,其中有一章就是电路暂态分析,即当电压发生突变时的电容电感电流的变化情况,一般来讲这里的暂态指的是变化时间很小甚至可以时间微分

\Delta t

为0的场景,称此电路具有脉冲性质。类似的还有比如一个系统某一瞬间受到外力的作用从而改变原始运动状态的情况也属于这种场景。在研究这类场景时就自然而然地带出了单位脉冲函数——

\delta

-函数(又称Dirac函数)。它具有很多非常神奇的性质,且往下看。

引入

还是以电路场景为例,假设某一电路的电流随时间变化,即电流为

i(t)

,由库伦定理可知,电流等于单位时间通过的电荷量Q,这里电荷量单位是库伦,在时刻

t_0

发生了脉冲(突然通电),即此时变为

Q(t) = \begin{cases} 0, t<=t_0 \\ 1, t>t_0 \end{cases}

则毫无疑问,此时的电流为

i(t_0) =\frac{dQ(t)}{dt} |_{t=t_0} =\lim_{\Delta t \to 0}\frac{Q(t_0 + \Delta t) - Q(t_0)}{\Delta t}

显然上式分子的被减数是在大于

t_0

时的,所以函数值为1,而减数是刚好等于

t_0

的,所以分子一定为1,而分母依极限趋于0,则整个电流式子则趋于无穷,这显然无法用该式表示此时的电流,则为了解决这个问题,英国物理学家引入了单位脉冲函数来代表,即大名鼎鼎的

\delta

-函数。

由上面例子不难发现,通俗地认识是此时的

\delta

-函数是上述分段函数的导数,而上述分段函数学名是阶跃函数(r如果一个值为1,另一个值为0,且分界点t为0,则成为单位阶跃函数u(t)),由高等数学知识可以知道,阶跃函数是在分段点非连续的(分段点一般是跳跃间断点),所以当然阶跃函数不可导,这里可以看成是为了利用其的一些特殊性质而对导数进行了推广,所以有以下式子成立:

\int_{-\infty}^{t} \delta(\tau) d\tau = u(t)
\frac{d}{dt} u(t) = \delta(t)

单位阶跃函数u(t)的应用为拉普拉斯变换的推导提供了基础,任何定义域为R的函数乘以单位阶跃函数后定义域都变成了

[0,+\infty]

,更能适应现实时间t>=0的场景了

值得注意的是,

\delta

-函数虽然是一个函数,但是它没有普通意义上的函数值(不满足Y和X一一对应),但它却是函数是因为它是某函数空间上的线性连续泛函(即某序列元素为函数的极限),它可以有如下定义:

\delta_{\varepsilon }(t) = \begin{cases} 0, t<0 \\ \frac{1}{\varepsilon},0<=t<=\varepsilon \\ 0, t>\varepsilon \end{cases}

此时

\delta(t) = \lim_{\varepsilon \to 0}\delta_{\varepsilon}(t)

所以一般

\delta(t)

-函数有如下定义

\delta(t) = \begin{cases} +\infty,x=0 \\ 0,x \neq 0 \end{cases}

性质

由上述定义,不难引出一个重要的积分等式:

\int_{-\infty}^{+\infty} \delta_{\varepsilon }(t) dt = \int_{-\varepsilon}^{+\varepsilon} \frac{1}{\varepsilon}dt = 1

所以有

\int_{-\infty}^{+\infty} \delta(t) dt =1

此外,对于任何一个无穷次可微的函数

f(t)

,都满足

\int_{-\infty}^{+\infty} \delta(t)f(t) dt = \lim_{\varepsilon \to 0}\int_{-\infty}^{+\infty} \delta_{\varepsilon }(t)f(t) dt

这个性质本质上也是

\delta

-函数的定义,表明是连续泛函

这个等式还可以接着写下去,即原式为:

\lim_{\varepsilon \to 0}\int_{-\infty}^{+\infty} \delta_{\varepsilon }(t)f(t) dt = \lim_{\varepsilon \to 0}\int_{0}^{\varepsilon}\frac{1}{\varepsilon}f(t) dt = \lim_{\varepsilon \to 0} \frac{1}{\varepsilon} \int_{0}^{\varepsilon} f(t)dt

这里就需要有中值定理的眼力了,很明显为

\lim_{\varepsilon \to 0} \frac{1}{\varepsilon} \int_{0}^{\varepsilon} f(t)dt = \lim_{\varepsilon \to 0} f(\theta \varepsilon)

所以有

\int_{-\infty}^{+\infty} \delta(t)f(t) dt =f(0)

更一般地进行坐标偏移,即

\int_{-\infty}^{+\infty} \delta(t-t_0)f(t) dt =f(t_0)

此性质为

\delta

-函数的筛选性质

这个性质可以推广到二维甚至多维,即

\int_{-\infty}^{+\infty} \int_{-\infty}^{+\infty} \delta(u,v)f(u,v) dt =f(0,0)
\int_{-\infty}^{+\infty} \int_{-\infty}^{+\infty} \delta(u-u_0,v-v_0)f(u,v) dt =f(u_0,v_0)

多维依次归纳推广即可

\delta_{\varepsilon }(u,v) = \begin{cases} 0, u,v<0 \\ \frac{1}{\varepsilon^2},0<=u,v<=\varepsilon \\ 0, u,v>\varepsilon \end{cases}

\delta(u,v) = \lim_{\varepsilon \to 0}\delta_{\varepsilon}(u,v)

所以由二维(或多维)的结果又有一个重要结论

\delta(x,y) = \delta(x)\delta(y)
\delta(x-x_0,y_0) = \delta(x-x_0)\delta(y-y_0)

一些结论:

\delta

-函数是偶函数,

\delta(t) = \delta(-t)
\delta(at) = \frac{1}{|a|} \delta(-t)

可以看成是坐标缩放或扩大a倍,而总的积分值(面积)为1,自然函数值(高)就会扩大或缩小a倍了

\int_{-\infty}^{+\infty} \delta'(t)f(t) dt =-f'(0)

由分布积分

\int_{-\infty}^{+\infty} f(t) d\delta(t) = \delta(t) f(t) - \int_{-\infty}^{+\infty}\delta(t)f'(t)= -f'(0)即可推得

推广到更一般,有

\int_{-\infty}^{+\infty} \delta^{(n)}(t)f(t) dt =(-1)^n f'(0)

更重要的性质 是在积分变换中崭露头角,比如在傅里叶变换和拉普拉斯变换中, 对

\delta

-函数作傅氏变换,有

F(\omega ) = \int_{-\infty}^{+\infty} \delta^{(n)}(t) e^{-j\omega t} dt = e^{-j\omega t}|_{t=0} =1

\delta

-函数作拉普拉斯变换,有

L[\delta(t)] = \int_{0}^{+\infty}\delta(t) e^{-st} dt = \int_{0^{-}}^{+\infty}\delta(t) e^{-st} dt
= \int_{-\infty}^{+\infty}\delta(t) e^{-st}dt = e^{-st}|_{t=0} = 1

傅氏变换可以看成是时域t到频域

\omega

的变换,是信号处理最重要的变换之一,拉普拉斯变换可以看做是对其条件的一些补充,后续会详细推导这两种变换,不见不散啦!

\delta

-函数的频谱图

这就说明

\delta

-函数的两种变换都与常数1是互为变换对,这在信号处理领域(比如小波变换等)是非常关键的性质

总结

\delta

-函数可看作是在原点处无限高、无限细,但是总面积为1的一个尖峰的连续函数,本文所解释的为连续型的

\delta

-函数,此外还有离散型的

\delta

-函数专门处理离散问题,如下

\delta[n] = \begin{cases} 1,n=0 \\ 0,n \neq 0 \end{cases}

这里的n定义域为整数集Z,这个函数代表着一个冲激或单位冲激。当一个数字处理单元的输入为单位冲激时,输出的函数被称为此单元的冲激响应。

在应用上,如前所述,具有优良的积分变换性质,故在图像变换领域是理论基础和工具,此外还多数运用在有暂态分析的场景中。电路场景中代表了点电荷的密度,受力质点场景比如要描述球杆击球的动力学问题,可以用

\delta

-函数描述击球那一刻的力,不但各种方程会因此简化,而且只需球杆传递的总冲量就能算出球击出后的运动,而不须考虑球杆向球传递能量的复杂具体情况。

还需说明的是本文所述的

\delta

-函数受作者水平限制只是它的一些比较浅显的推论和性质,更多的考虑需要不断结合测度论、泛函分析等细分领域的知识才能更加抽象但详细地区了解掌握它,但总是需要一步一步来的!!

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2021-10-20,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 碎片学习录 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
开发 | CNN 那么多网络有何区别?看这里了解 CNN 发展历程
AI科技评论按:本文原载于知乎, AI科技评论获作者授权转载。 深度学习算法最近变得越来越流行和越来越有用的算法,然而深度学习或者深度神经网络的成功得益于层出不穷的神经网络模型架构。这篇文章当中作者回
AI科技评论
2018/03/13
1.2K0
开发 | CNN 那么多网络有何区别?看这里了解 CNN 发展历程
神经网络结构(上)
深度神经网络和深度学习是很强大和流行的算法。他们的成功很大程度上在于神经网络架构的精心设计。所以我想重温过去几年深度学习的神经网络设计的历史。
哒呵呵
2018/08/06
5110
神经网络结构(上)
深度网络的“从古至今”的蜕变
两首歌曲非常应景今天分享的内容,我记得大概在1994年左右就有神经网络相关的知识了,并推动了deep learning领域的发展。 LeNet5 的架构基于这样的观点:图像的特征分布在整张图像上,以及
计算机视觉研究院
2018/04/18
7890
深度网络的“从古至今”的蜕变
一文详解卷积神经网络的演变历程!
AI研习社按:提起卷积神经网络你会想到什么?LeNet、AlexNet 还是ResNet?它们之间有哪些差别和特点,又经历了怎样的发展和演变?本文将针对这一话题展开讨论。原文作者杨熹,载于作者的个人博
AI研习社
2018/03/19
1.6K0
一文详解卷积神经网络的演变历程!
【AI 技术精选】神经网络结构深入分析和比较
作者 | Eugenio Culurciello 翻译 | AI科技大本营(rgznai100) 深度神经网络和深度学习是既强大又受欢迎的算法。这两种算法取得的成功主要归功于神经网络结构的巧妙设计。 我们来回顾一下,神经网络设计在过去几年以及在深度学习中的发展历程。 这篇文章对所有网络进行了一次更为深入的分析和比较,详情请阅读我们发表的文章: https://arxiv.org/abs/1605.07678 这是文章中的一张具有代表性的图表,如下所示: 在多种受欢迎的神经网络结构中,大部分的操作需要
AI科技大本营
2018/04/26
1.1K0
【AI 技术精选】神经网络结构深入分析和比较
深度学习系列(二)卷积神经网络模型(从LeNet-5到Inception V4)
卷积神经网络上目前深度学习应用在图像处理和自然语言处理的非常具有代表性的神经网络,其经历了不断的优化发展,性能越来越强。在图像处理、计算机视觉领域的应用包括图像特征提取、目标分类、目标分割、目标识别等。相比于传统的神经网络需要将一定的特征信息作为输入,卷积神经网络可以直接将原始图像或经过预处理之后的图像作为网络模型的输入,一个卷积神经网络通常包括输入输出层和多个隐藏层,隐藏层通常包括卷积层和RELU层(即激活函数)、池化层、全连接层和归一化层等。卷积神经网络中有三个基本的概念:局部感受野(Local Receptive Fields)、共享权值(Shared Weights)、池化(Pooling)。 (1)局部感受野。对于全连接式的神经网络,图像的每一个像素点连接到全连接的每一个神经元中,造成大量的计算量,而卷积神经网络则是把每一个卷积核的点只连接到图像的某个局部区域,从而减少参数量。 (2)共享权值。在卷积神经网络的卷积层中,神经元对应的权值是相同的,由于权值相同,因此可以减少训练的参数量。 (3)池化。类似于人的视觉观察物体原理,关注点由大到小,首先输入图像往往都比较大,在卷积过程中通过不断提取特征,并且经过池化操作来对图像进行缩小,同时提取低阶和高阶的抽象特征信息。 卷机的原理和各种卷积的变种在之前的文章里提过。(深度学习系列(一)常见的卷积类型)
Minerva
2020/05/21
1.2K0
深入浅出卷积神经网络及实现!
卷积神经网络CNN是深度学习中的基础知识。本文对CNN的基础原理及常见的CNN网络进行了详细解读,并介绍了Pytorch构建深度网络的流程。最后,以阿里天池零基础入门CV赛事为学习实践,对Pytorch构建CNN模型进行实现。
Datawhale
2020/06/16
9510
从LeNet到SENet——卷积神经网络回顾
AI 科技评论按:本文为浙江大学范星为 AI 科技评论撰写的独家稿件,未经许可不得转载。 从 1998 年经典的 LeNet,到 2012 年历史性的 AlexNet,之后深度学习进入了蓬勃发展阶段,百花齐放,大放异彩,出现了各式各样的不同网络,包括 LeNet、AlexNet、ZFNet、VGG、NiN、Inception v1 到 v4、Inception-ResNet、ResNet、WRN、FractalNet、Stochastic Depth、DenseNet、ResNeXt、Xception、SE
AI科技评论
2018/03/06
1.3K0
从LeNet到SENet——卷积神经网络回顾
一文总览CNN网络架构演进:从LeNet到DenseNet
卷积神经网络可谓是现在深度学习领域中大红大紫的网络框架,尤其在计算机视觉领域更是一枝独秀。CNN从90年代的LeNet开始,21世纪初沉寂了10年,直到12年AlexNet开始又再焕发第二春,从ZF Net到VGG,GoogLeNet再到ResNet和最近的DenseNet,网络越来越深,架构越来越复杂,解决反向传播时梯度消失的方法也越来越巧妙。新年有假期,就好好总结一波CNN的各种经典架构吧,领略一下CNN的发展历程中各路大神之间的智慧碰撞之美。
小草AI
2019/05/29
8860
深度学习——卷积神经网络 的经典网络(LeNet-5、AlexNet、ZFNet、VGG-16、GoogLeNet、ResNet)
一、CNN卷积神经网络的经典网络综述 下面图片参照博客:http://blog.csdn.net/cyh_24/article/details/51440344 二、LeNet-5网络 输入尺寸:32
10JQKA
2018/05/09
2.9K0
深度学习——卷积神经网络 的经典网络(LeNet-5、AlexNet、ZFNet、VGG-16、GoogLeNet、ResNet)
基于卷积神经网络的图像分类
目前主要的网络先是AlexNet,然后到VGG,到GoogleNet再到ResNet,深度是逐渐加深的分别是8层、19层、GoogleNet V1是22层和ResNet第一篇文章是152层,其中VGG和ResNet结构简洁而且性能比较好,因此使用比较广泛。GoogleNet的性能最好,但是网络很复杂,思想是先分级再分支然后再各自做变换然后再合并,就是增加了网络的宽度,先分支各个网路做各自的卷积或池化,最终把结果串接起来形成更多的特征通道。残差网络主要是对通达上的操作,通道拆解。目前网络有三大维度,深度、宽度(GoogleNet主做的维度)、残差网络的升级版ResNeXt增加了维度基数,因此有三个参数来表征网络的复杂度,换句话说就是模型的表达力,网络越复杂模型表达力越强。
狼啸风云
2022/06/05
1.1K0
基于卷积神经网络的图像分类
「卷积神经网络」深入浅出
六月份初开启了我神经网络相关内容的学习,眨眼间一个月过去了,是时候来总结下自己这个月的学习心得了。
曼亚灿
2023/07/24
7260
「卷积神经网络」深入浅出
基于PyTorch的卷积神经网络经典BackBone(骨干网络)复现
向AI转型的程序员都关注了这个号👇👇👇 机器学习AI算法工程   公众号:datayx 前言 卷积神经网络的发展,从上个世纪就已经开始了,让时间回到1998年, 在当时,Yann LeCun 教授提出了一种较为成熟的卷积神经网络架构LeNet-5,现在被誉为卷积神经网络的“HelloWorld”,但由于当时计算机算力的局限性以及支持向量机(核学习方法)的兴起,CNN方法并不是当时学术界认可的主流方法。时间推移到14年后,随着AlexNet以高出第二名约10%的accuracy rate成为了2012年Ima
机器学习AI算法工程
2022/05/10
1.4K0
基于PyTorch的卷积神经网络经典BackBone(骨干网络)复现
按时间轴简述九大卷积神经网络
timeline ---- 1998, Yann LeCun 的 LeNet5 图像特征分布在整个图像上 在具有很少参数的多个位置上提取类似特征时,具有可学习的参数的卷积是个比较有效的方法 在没有应用GPU的时候,能够保存参数和计算就成了一个关键优势 LeNet5并没有把每个像素都作为大型多层神经网络的一个输入,因为图像是高度空间相关的,如果用了这种方法,就不能很好地利用相关性 LeNet5 的主要特征: CNN 主要用这3层的序列: convolution, pooling, non-lin
杨熹
2018/04/03
1.7K0
按时间轴简述九大卷积神经网络
经典分类网络结构
下面我们主要以一些常见的网络结构去解析,并介绍大部分的网络的特点。这里看一下卷积的发展历史图。
Lansonli
2021/10/09
1.4K0
深度学习与CV教程(9) | 典型CNN架构 (Alexnet,VGG,Googlenet,Restnet等)
本系列为 斯坦福CS231n 《深度学习与计算机视觉(Deep Learning for Computer Vision)》的全套学习笔记,对应的课程视频可以在 这里 查看。更多资料获取方式见文末。
ShowMeAI
2022/06/03
8050
深度学习与CV教程(9) | 典型CNN架构 (Alexnet,VGG,Googlenet,Restnet等)
从LeNet到GoogLeNet:逐层详解,看卷积神经网络的进化
深度学习的兴起使卷积神经网络在计算机视觉方面大放异彩,本文将按时间和创新点顺序介绍一系列网络结构:LeNet、AlexNet、VGGNet、InceptionNet 与 ResNet。
AI算法与图像处理
2020/02/12
3.9K0
从LeNet到GoogLeNet:逐层详解,看卷积神经网络的进化
深度学习经典网络解析:6.GoogLeNet
  GoogLeNet是2014年Christian Szegedy提出的一种全新的深度学习结构,在这之前的AlexNet、VGG等结构都是通过增大网络的深度(层数)来获得更好的训练效果,但层数的增加会带来很多负作用,比如过拟合、梯度消失、梯度爆炸等。Inception Architecture的提出则从另一种角度来提升训练结果:能更高效的利用计算资源,在相同的计算量下能提取到更多的特征,从而提升训练结果。
AiCharm
2023/05/15
7120
深度学习经典网络解析:6.GoogLeNet
从AlexNet到残差网络,理解卷积神经网络的不同架构
该文介绍了神经网络模型压缩、加速和量化三个方面的研究进展。其中,压缩技术包括模型剪枝、知识蒸馏等方法,加速技术包括硬件加速、优化算法等方法,量化技术包括量化训练、量化推理等方法。这些技术在不同程度上减小了模型的大小、提高了推理的速度、降低了训练的能耗。
企鹅号小编
2018/01/04
1K0
从AlexNet到残差网络,理解卷积神经网络的不同架构
2012到2020主要的CNN架构总结
CNN被设计用于图像识别任务,最初是用于手写数字识别的挑战(Fukushima 1980,LeCun 1989)。CNN的基本设计目标是创建一个网络,其中网络早期层的神经元将提取局部视觉特征,而后期层的神经元将这些特征组合起来以形成高阶特征。
deephub
2021/01/12
1.1K0
2012到2020主要的CNN架构总结
推荐阅读
相关推荐
开发 | CNN 那么多网络有何区别?看这里了解 CNN 发展历程
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档