首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >问答首页 >通过空间卷积求z的偏导数

通过空间卷积求z的偏导数
EN

Stack Overflow用户
提问于 2019-01-09 13:59:41
回答 1查看 114关注 0票数 0

我的任务是在MATLAB中通过空间卷积找到函数z的偏导数dz/dxdz/dy。据我所知,空间卷积只是空间域和某种形式滤波器的产物。我假设这种情况下的滤波器是偏导数?最好的方法是什么,因为我已经计算过曲面了?

代码语言:javascript
运行
AI代码解释
复制
%values of z. 
x = -9:0.2:9;
y = -8:0.2:8;
z = comp_z(x,y)
colormap('hot') %as specified
zfinal=z';
surf(x,y,zfinal)
EN

回答 1

Stack Overflow用户

发布于 2019-01-09 14:20:58

这看起来像是家庭作业,所以我只给你指出正确的方向,而不是给你代码。

dz/dx在点z_i上的中心差导数定义为dz_i/dx=(z_{i-1}+z_{i+1})/2

如果z是一个矩阵,并且您可以将[-0.5 0 0.5]应用于值z_i,那么您将获得与dz_i/dx相同的等式。如果将此方法应用于所有元素(或在图像上对滤镜进行空间卷积),则将获得所有元素的此值。

对于dz_i/dy,也可以获得相同的逻辑。

票数 2
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/54111853

复制
相关文章
关于导数、偏导数的理解
导数是人工智能、神经网络的基础,正向传播、反向传播无不依赖于导数,导数也是高数的基础,本文算是一个半学习半理解加非科班的学习过程吧
python与大数据分析
2022/03/11
1.3K0
关于导数、偏导数的理解
偏导数与全导数
1.偏导数 代数意义 偏导数是对一个变量求导,另一个变量当做数 对x求偏导的话y就看作一个数,描述的是x方向上的变化率 对y求偏导的话x就看作一个数,描述的是y方向上的变化率 几何意义 对x求偏导是曲面z=f(x,y)在x方向上的切线 对y求偏导是曲面z=f(x,y)在x方向上的切线 这里在补充点.就是因为偏导数只能描述x方向或y方向上的变化情况,但是我们要了解各个方向上的情况,所以后面有方向导数的概念.
狼啸风云
2019/08/29
2.5K0
梯度 方向导数 偏导数 导数 等值线
梯度出现在 高等数学下册 的 第九章:多元函数微分法及其应用  第七节: 方向导数与梯度中;(讲的非常清楚) 在讲到这个概念的时候,也是从二元函数开始入手,并没有讨论一元的情况,所以根据我的理解,梯度是一个出现在多元函数里面的概念,不存在一元的讨论里面; 同理,偏导数和方向导数只存在于多元函数的情况下,一元函数不会去讨论这些; 以下图来自以同济6版高数。 一、梯度 1)导数 对于一元函数而言,对某一点沿着唯一的一个自变量方向的变化率,就是导数。 2)偏导数 对于多元函数而言,对于某一点沿着每个自变量的方向
Echo_fy
2018/06/20
1.6K0
直观理解梯度,以及偏导数、方向导数和法向量等
梯度是微积分中的基本概念,也是机器学习解优化问题经常使用的数学工具(梯度下降算法),虽然常说常听常见,但其细节、物理意义以及几何解释还是值得深挖一下,这些不清楚,梯度就成了“熟悉的陌生人”,仅仅“记住就完了”在用时难免会感觉不踏实,为了“用得放心”,本文将尝试直观地回答以下几个问题,
李拜六不开鑫
2019/10/23
3.7K0
我的机器学习微积分篇观点函数从极限到导数导数的应用偏导数从方向导数到梯度
前言: 没想到还能在此生再次用到大学习学习的高数,线性代数和概率论,如果上天给我再来一次的机会,我一定往死了学习这三门课。 观点 与机器学习相关的微积分的核心问题是极值问题 核心技能是偏导数
DC童生
2018/04/27
1.5K0
我的机器学习微积分篇观点函数从极限到导数导数的应用偏导数从方向导数到梯度
#机器学习数学基础# 可导,可微,导数,偏导数...都是些啥?
好不容易大学毕业了,终于逃脱了高数老师的魔掌,以为从今以后再也不用管那些什么极限、微积分、矩阵、共轭、转置、中值定理、拉格朗日、毕达哥拉斯……了。 然鹅,很不幸,当你企图进军机器学习的时候,你发现,当年你不应该在上数学课的时候偷瞄漂亮的女生,暗骂白发的先生,而是应该好好听讲。 后悔是没用的,行动起来,补习功课吧!我们从最基础的求导微分概念开始。 一元函数 先来看最最简单的一元函数的情况: 【导数】:函数y = f(x) 在点x0的某个邻域内有定义, 则当自变量x在x0处取得增量 delta_x,函数输出值也
叶锦鲤
2018/03/15
4.4K0
WebGL 着色器偏导数dFdx和dFdy介绍
偏导数函数(HLSL中的ddx和ddy,GLSL中的dFdx和dFdy)是片元着色器中的一个用于计算任何变量基于屏幕空间坐标的变化率的指令(函数)。在WebGL中,使用的是dFdx和dFdy,还有另外一个函数fwidth = dFdx + dFdy。
用户3158888
2019/07/09
1.3K0
已知空间两点组成的直线求线上某点的Z值
已知空间两点组成的直线求线上某点的Z值,为什么会有这种看起来比较奇怪的求值需求呢?因为真正三维空间的几何计算是比较麻烦的,很多时候需要投影到二维,再反推到三维空间上去。
charlee44
2020/01/02
1.1K0
WebGL 着色器偏导数dFdx和dFdy介绍
偏导数函数(HLSL中的ddx和ddy,GLSL中的dFdx和dFdy)是片元着色器中的一个用于计算任何变量基于屏幕空间坐标的变化率的指令(函数)。在WebGL中,使用的是dFdx和dFdy,还有另外一个函数fwidth = dFdx + dFdy。
用户3158888
2019/07/06
1.7K0
搞懂深度学习到底需要哪些数学知识
IT互联网行业有个有趣现象,玩资本的人、玩产品的人、玩技术的人都能很好的在这个行业找到自己的位置并取得成功,而且可以只懂其中一样,不需要懂其余两样。玩技术的人是里面最难做的,也是三者收益最低的,永远都要不停学习,不停把画饼变成煎饼。 在今年5月底,Alphago又战胜了围棋世界冠军柯洁,AI再次呈现燎原之势席卷科技行业,吸引了众多架构师对这个领域技术发展的持续关注和学习,思考AI如何做工程化,如何把我们系统的应用架构、中间件分布式架构、大数据架构跟AI相结合,面向什么样的应用场景落地,对未来做好技术上的规划
用户1737318
2018/07/20
6410
用matlab求二元函数的极限_matlab求极大值
步骤4. 对于每一个驻点,计算判别式,如果,则该驻点是极值点,当为极小值, 为极大值;如果,需进一步判断此驻点是否为极值点; 如果则该驻点不是极值点.
全栈程序员站长
2022/10/04
1.5K0
OpenCV 滤波与卷积之 —— 梯度和导数
平滑一般也称“模糊”,是一种简单而又常用的图像处理操作。平滑图像的目的有很多,但通常都是为了减少噪声和伪影。在降低图像分辨率的时候,平滑也是十分重要的。OpenCV 提供5种不同的平滑操作,每种操作都有对应的函数实现,这些操作平滑的结果有着细微的差别。
为为为什么
2022/08/09
7390
OpenCV 滤波与卷积之 —— 梯度和导数
Python sympy 模块常用功能(二)
极限 >>> limit(sin(x)/x, x, 0) 1 >>> limit(sin(x)/x, x, oo) #正无穷处极限 0 >>> limit(sin(x) * E**x, x, -oo)#负无穷处极限 0 >>> limit(1/x, x, 0, '+') #右极限 oo >>> limit(1/x, x, 0, '-')#左极限 -oo >>> limit(1/sin(x), x, oo) #极限不存在 AccumBounds(-oo, oo) 求导 >>> diff(cos(x), x)
用户6021899
2019/08/14
2.5K0
已知空间三点组成的面求该面上某点的Z值
已知空间三点,那么可以就可以确定空间三点组成的平面。此时可以根据某一点的X值和Y值,来求取该点在平面上的Z值。这个过程对于求三角面片上某点的高程或者权值特别有用,其本身也可以看作一种线性插值。
charlee44
2020/01/02
8020
【机器学习算法系列】梯度下降---偏导数及其几何意义
在一元函数中,我们已经知道导数就是函数的变化 率。对于二元函数我们同样要研究它的“变化率”。然而,由于自变量多了一个,情况就要复杂的多。
统计学家
2019/04/10
1.4K0
【机器学习算法系列】梯度下降---偏导数及其几何意义
学界丨反向传播算法最全解读,机器学习进阶必看!
AI 科技评论按:如果对人工智能稍有了解的小伙伴们,或多或少都听过反向传播算法这个名词,但实际上BP到底是什么?它有着怎样的魅力与优势?本文发布于 offconvex.org,作者 Sanjeev Arora与 Tengyu Ma,由 AI 科技评论对此进行编译。 目前网络上关于反向传播算法的教程已经很多,那我们还有必要再写一份教程吗?答案是‘需要’。 为什么这么说呢?我们教员Sanjeev最近要给本科生上一门人工智能的课,尽管网上有很多反向传播算法的教程,但他却找不到一份令他满意的教程,因此我们决定自己写
AI科技评论
2018/03/09
1.6K0
学界丨反向传播算法最全解读,机器学习进阶必看!
深入理解拉格朗日乘子法(Lagrange Multiplier) 和KKT条件「建议收藏」
在求解最优化问题中,拉格朗日乘子法(Lagrange Multiplier)和KKT(Karush Kuhn Tucker)条件是两种最常用的方法。在有等式约束时使用拉格朗日乘子法,在有不等约束时使用KKT条件。
全栈程序员站长
2022/11/10
3.7K0
深入理解拉格朗日乘子法(Lagrange Multiplier) 和KKT条件「建议收藏」
什么是反向传播算法
神经网络的快速发展离不开底层数学算法的演进。反向传播算法作为神经网络中学习的主力,最初是在20世纪70年代引入的,但其重要性直到1986年由一篇着名的论文才得到充分的重视,其作者是DavidRumelhart,GeoffreyHinton和RonaldWilliams。该论文描述了几种神经网络,而其中反向传播比其他早期的学习方法快得多,从而可以使用神经网络来解决以前不能解决的问题。 说到神经网络,大家看到这个图应该不陌生: 其对应的表达式如下: 上面式中的Wij就是相邻两层神经元之间的权值,它们就是深度
企鹅号小编
2018/01/15
8040
什么是反向传播算法
机器学习优化算法(一)
我们在前面说过机器学习中的损失函数,其实机器学习中的每一个模型都是在求损失函数的最优解,即让损失达到最小值/极小值,求解方式有多种,本篇讲讲其中两个基本的优化方法:
张俊红
2018/10/08
1.1K0
机器学习优化算法(一)
点击加载更多

相似问题

如何在mathematica中求偏导数符号

213

Python偏导数

21

Cython偏导数

10

Laravel转义偏导数

10

Python偏导数易用

20
添加站长 进交流群

领取专属 10元无门槛券

AI混元助手 在线答疑

扫码加入开发者社群
关注 腾讯云开发者公众号

洞察 腾讯核心技术

剖析业界实践案例

扫码关注腾讯云开发者公众号
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
查看详情【社区公告】 技术创作特训营有奖征文