腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(418)
视频
沙龙
1
回答
高斯
过程
wrt
特征
的
偏
导数
、
、
、
、
给定一个具有多维
特征
和标量观测
的
高斯
过程
模型,如何在GPyTorch或GPFlow (或scikit learn)中计算每个输入
的
输出
wrt
的
导数
?
浏览 15
提问于2020-09-05
得票数 1
1
回答
tf.gradients和tf.train.Optimizer.compute_gradient有什么区别?
tf.gradients似乎也允许计算雅可比,即一个张量
wrt
的
每个入口
的
偏
导数
。另一个张量
的
每个项,而tf.train.Optimizer.compute_gradient只计算实际
的
梯度,例如一个标量值
wrt
的
偏
导数
。特定张量或
wrt
的
每一项。一个特定
的
标量。如果tf.gradients也实现了这个功能,为什么会有一个单独
的
浏览 14
提问于2017-07-27
得票数 4
回答已采纳
2
回答
如何将
偏
导数
高斯
核应用于OpenCV图像?
、
、
我试着重现一篇论文
的
结果,在这篇论文中,他们用
高斯
核
的
水平
偏
导数
来转换图像。我还没有找到用OpenCV实现这一目标的任何方法。这有可能吗? 我需要得到
高斯
滤波器,然后手工计算
偏
导数
吗?
浏览 2
提问于2016-01-26
得票数 4
回答已采纳
1
回答
激活函数与
偏
导数
wrt
的
导数
。损失函数
、
、
、
、
人工智能中
的
一些术语让我很困惑。反向传播中使用
的
导数
函数是激活函数
的
导数
或损失函数
的
导数
。我还是没搞清楚。
浏览 0
提问于2018-12-18
得票数 0
回答已采纳
1
回答
验证我对Logistic回归中MLE &梯度下降
的
理解
、
、
以下是我对Logistic回归中MLE与梯度下降之间关系
的
理解。如果我错了,请纠正我:2) MLE是解析/精确
的
,GD是数值/近似的。不幸
的
浏览 0
提问于2022-05-09
得票数 -4
1
回答
LoG (Laplacian of Gaussian)滤波器、一阶
导数
高斯
滤波器和二阶
导数
高斯
滤波器有什么不同?
、
、
LoG (Laplacian of Gaussian)滤波器、一阶
导数
高斯
滤波器和二阶
导数
高斯
滤波器有什么不同? (P.3)
浏览 2
提问于2019-02-25
得票数 2
1
回答
利用
高斯
的
图像
导数
、
这是我用来计算图像
导数
的
函数。请帮助我理解这个代码,因为我是这个领域
的
新手。如果有人能给我一些链接来理解这个概念,我将是伟大
的
。我有点怀疑- 我们为什么在这里使用ndgrid?这里
的
方向是'x','y','xx',('xy','yx'),'yy‘?这个
高斯
公式是如何并且为什么会根据方向变化
的
呢?我们为什么要在最后使用嵌入滤波器?
浏览 0
提问于2014-04-23
得票数 0
回答已采纳
1
回答
什么是静态目标函数?
、
关于亚当
的
论文提到了平稳目标函数。我无法在互联网上找到它
的
定义(或者它可能有其他名称,我也找不出)。如果有人能描述或引导我找到正确
的
资源,我将不胜感激。
浏览 0
提问于2023-03-14
得票数 0
1
回答
为什么静态输入变量
的
有限差分用于计算雅可比?(OpenMDAO 2.4)
、
每个组件
的
运行时间约为10秒,输入变量为60-100个。大多数输入变量是静态输入变量,在整个优化
过程
中将保持不变。静态输入变量来自IndepVarComp。ExplicitComponents是黑匣子,因此不提供有关部分
的
信息。此外,如果我正确地理解它,这些分量被线性化,得到子雅可比,然后用它来
浏览 0
提问于2018-10-25
得票数 1
回答已采纳
1
回答
为什么这个条件logit梯度
的
实现失败了?
、
、
、
我已经为条件logit模型(解释为)编写了一个非常简单
的
可能性/梯度实现--这个可能性工作得很好,但是梯度是不正确
的
。我
的
两个问题是:我对梯度
的
推导正确吗?如果正确,我在Python中
的
实现是否正确?型号: 日志可能性: 最后,梯度: 这里,我是每个观测,j是观察范围内
的
一个选择,c是在观测i中选择
的
选择,而Xij是选择j在i中
的
特征
向量,B是相应
的
系数。似然公式应将
特征
浏览 0
提问于2016-09-17
得票数 0
回答已采纳
1
回答
TensorFlow梯度:通过tf.gradients获取不必要
的
0.0梯度
、
、
、
假设我有一些损失: 此外,由于
浏览 2
提问于2018-02-05
得票数 4
1
回答
MNIST -训练停滞
、
、
、
、
几天来,我一直在挠头,因为我
的
实现达到了57%
的
峰值,在测试集中对数字进行分类(大约5734/10000)在10个年代之后(训练集
的
精度在第十世纪后停滞,而测试集
的
准确性可能由于过度拟合而恶化)。我使用
的
配置与书中几乎相同:2层前馈神经网络(784-30-10),所有层完全连接;标准乙状结肠激活函数;二次成本函数;权值以相同
的
方式初始化(从
高斯
分布,均值为0和标准差1),唯一
的
区别是我使用
的
是在线培训而不是批一开始我搞砸了反
浏览 2
提问于2015-12-16
得票数 2
回答已采纳
1
回答
验证Modelica smoothOrder注释
的
正确性
、
、
这是我上一个问题
的
后续问题:Modelica smoothOrder of cubic polynomial 我正在为一个现有的大型库做贡献,这个库在函数中可能有50个smoothOrder注释。这些通常是分段定义
的
函数,在if-else语句
的
不同分支中有不同
的
函数定义。 检查平滑度
的
手动方法可以是评估和绘制接近if-else
的
开关条件
的
函数和所有(部分)
导数
,直到定义
的
顺序。如果
导数
的
值和曲线图是
浏览 30
提问于2021-06-23
得票数 2
回答已采纳
1
回答
基于Copula
的
条件概率
、
阅读论文“使用copulas
的
海洋风暴
的
多元模型”(De Michele等人,2007年) I在R.数学背景:P(U3\U1,U2)(u1,u2,u3)/∂u1∂U2/ (∂C(u1,u2)/∂u1∂u2)代码:(u1,u
浏览 1
提问于2018-05-11
得票数 0
回答已采纳
2
回答
如何在MATLAB或python中绘制
高斯
(LoG)函数
的
二维拉普拉斯图?
、
、
、
、
我试图制作一个类似于下面的三维图,说明
高斯
(LoG)函数
的
二维拉普拉斯函数。我如何通过MATLAB或python实现这一点?代码片段将非常感谢。我已经发现,我们可以用绘制
高斯
,但我正在寻找如何绘制
高斯
的
拉普拉斯。
浏览 0
提问于2019-02-27
得票数 0
回答已采纳
1
回答
利用神经网络分类器计算图像显着性
、
、
给定经过训练
的
网络和测试图像,可以跟踪它
的
哪些像素是显着
的
,或“等效”哪些像素对图像
的
输出分类最负责。在这个中给出了Theano中一个很好
的
解释和实现细节。假设对于与输入图像直接相关
的
第一层卷积,我们对每个卷积核
wrt
的
参数都有梯度。分类函数。 如何将梯度传播回输入层,从而在图像
的
每个像素上计算
偏
导数
?传播和积累
的
梯度,将给我们突出
的
像素(他们是那些大
的<
浏览 1
提问于2016-06-29
得票数 4
回答已采纳
1
回答
tf.gradients在TensorFlow中
的
工作原理
、
、
假设我有一个线性模型,如下所示,我想得到关于W和b
的
梯度向量。tf.mul(X, W), b) cost = tf.reduce_sum(tf.pow(pred-Y, 2))/(2*n_samples)grads = tf.gradients(cost, tf.all_variable()) 我
的
占位符也将包括在内即使我用[x,y,w,
浏览 0
提问于2017-01-24
得票数 19
回答已采纳
1
回答
从Maple表达式中删除高阶
导数
在一个枫树表达式中,是否有一种简单
的
方法来保持(
偏
导数
)达到某种顺序?例如,假设我将f'
的
完整表达式是如果我只保留一阶
导数
的
条件 f'=g
浏览 0
提问于2017-03-28
得票数 1
回答已采纳
1
回答
如何解决线性分类问题上
的
梯度下降问题?
、
、
、
梯度下降(E_{in}(a,b))定义为E_{in}(a,b)、
wrt
、a和b方程
的
偏
导数
。(据我所知,w相当于[a, b] )请注意,当我说N点上和时,我
的
意思是用希腊符号表示N点
的
求和。 我不知道在这种情况下如何计算
偏
导数
。当我们说要修正'a‘和改变'b’时,是否意味着只有
wrt
'b‘才能找到差异?这意味着梯度(E_{in})= -1 / N (\sum_{
浏览 0
提问于2020-03-04
得票数 4
回答已采纳
1
回答
在神经网络中实现softmax激活和交叉熵损失及其
导数
的
问题
、
、
、
、
我已经实现了一个简单
的
多层感知器(只有一个隐藏层),它可以学习回归问题。我写了它,以便可以在sigmoid、tanh和relu激活之间指定选择。然后,平方误差被实现为损失函数,其中每个损失函数。我现在希望允许选择使用相同
的
模型来学习多类分类问题,因此希望实现使用softmax激活和交叉熵损失
的
选择。在我下面的代码中,唯一需要做
的
更改(我希望)是在activation()和loss()函数中实现这些,然后这应该会在正向传球和后传中开箱即用。这段代码运行学习XOR函数
的
模型
的
模拟,其中选择<
浏览 2
提问于2018-04-11
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
激活函数的偏导数
AI从入门到放弃:BP神经网络算法推导及代码实现笔记
如何自己实现简单的Google深度学习框架TensorFlow(二)?
用Python做图像处理:图像导数实战
在SolidWorks建模过程中,自动赋予每个建特征不同的颜色
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券