腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
3
回答
我
可
以对
图像
使用
数值
梯度
函数
吗
?
、
我
最近一直在尝试测试numpy.gradient
函数
。然而,它的行为对
我
来说有点奇怪。
我
已经创建了一个包含随机变量的数组,然后对其应用了numpy.gradient,但是这些值看起来很疯狂,也不相关。但在
使用
numpy.diff时,这些值是正确的。import numpy as np; a= np.array([10, 15,
浏览 16
提问于2016-08-07
得票数 4
回答已采纳
3
回答
科学学会如何实施线搜索?
、
在关于
梯度
增强的文档的中,它说
我
理解行搜索的目的,但我不理解算法本身。
我
读过,但仍然没有点击。如果能给你解释的话,
我
将不胜感激。
浏览 0
提问于2016-12-19
得票数 5
1
回答
如何检验相关
梯度
、
、
、
我
试图实现ANN,
我
还为反向传播编写了一个
数值
梯度
检查。当我
使用
乙状结肠
函数
时,
数值
梯度
检查是正确的。switch opts.act_function d_act = a{i} > 0; case 'sigmoid'
浏览 5
提问于2016-11-16
得票数 3
1
回答
tensorflow:
可
区分索引是可能的
吗
?
使用
Tensorflow可
以对
数组进行
可
微索引
吗
?更具体地说,如果
我
有一个浮点数的变量,它以某种方式转换数组的索引,
我
能否获得转换后的数组相对于该变量的
梯度
?基于空间变换网络(和)的
梯度
导数,这似乎应该是
可
微的。
我
已经尝试实现了这一点,但我遇到了问题,因为在
使用
tf.gather转换数组之前,
我
必须将转换后的索引转换为整数,而渐变似乎不能通过它。
浏览 0
提问于2016-07-28
得票数 7
1
回答
如何对角线应用顺风
梯度
?
如果
我
想要像
图像
中所示的那样
以对
角方式
使用
梯度
,该怎么办?在应用
梯度
时,有没有选择角度的方法?
浏览 0
提问于2022-08-09
得票数 0
1
回答
如何在autograd.gradcheck中
使用
PyTorch?
、
文档不包括任何
梯度
检查的示例用例,它在哪里有用?
浏览 0
提问于2019-08-23
得票数 14
回答已采纳
1
回答
使用
optimize.fmin_l_bfgs_b的错误收敛
、
、
、
我
使用
optimize.fmin_l_bfgs_b来优化用Fortran编写的
函数
。,用于
使用
两个所需的结果(Var1和Var2)计算
函数
。
我
的问题是算法没有优化第一个变量。它似乎只是用1.09和1.09000001之间的差来评估
函数
,这太低了,无法在Fortran
函数
中获得不同的值(这可能是它没有被优化的原因)。第二个变量不存在这个问题。这是正常的行为
吗
?是否有任何选项可以使算法
使用
更高的步骤?
浏览 4
提问于2015-01-26
得票数 1
回答已采纳
1
回答
如果
我
不为tensorflow中的op提供
梯度
,
梯度
下降是如何工作的?
、
、
在添加新op时,文档()说:既然这是可选的,如果
我
不写,
梯度
下降是如何计算
梯度
的?它用
数值
方法
吗
?如果是,什么?这会慢点
吗
?
浏览 0
提问于2016-08-30
得票数 0
回答已采纳
2
回答
为什么scipy.optimize如此严重地依赖开始值?
、
、
、
我
试图
使用
scipy.optimize进行一些简单的优化问题,但我发现
我
只能在非常有限的起始值范围内找到解决方案。下面是一个
可
复制的最小示例:import scipy.stats as stminimize(neg_likelihood, 0.3) neg_like
浏览 1
提问于2016-04-02
得票数 1
回答已采纳
1
回答
每次迭代的
函数
求值的nlm数量?
、
、
、
我
使用
nlm来最大化R中的可能性。
我
希望预测可能性评估的数量,并在任务可能花费太长时间时中止。nlm返回“迭代”的次数(通常为10-20次),
我
认为每次迭代都涉及到黑森数的一个
数值
计算。所以我想知道:在nlm中,参数数量和每次迭代的
函数
求值数量之间的一般关系是什么?
浏览 3
提问于2019-11-05
得票数 0
1
回答
当
梯度
刚刚解决问题时,为什么
使用
梯度
下降?(用神经网络)
、
据我所知,
梯度
实际上达到了全局最小,
梯度
下降试图采取步骤,他认为是最低的方向。
我
知道从复
函数
中计算
梯度
不是一个平凡的问题,但假设我们是一个
使用
二次代价
函数
的神经网络,那么计算
梯度
并得到实际的全局极小值会很困难
吗
?
浏览 0
提问于2018-03-02
得票数 0
回答已采纳
1
回答
Python / Scipy“标量变量的无效索引”
、
、
、
我
使用
的是Scipy优化模块,特别是fmin_l_bfgs_b.和fmin_tnc。但是,在
使用
任何一个标量变量时,
我
都会收到消息"IndexError:无效索引到标量变量“。
我
的练习守则: para1, para2 = para para0 = np.array
浏览 6
提问于2012-08-15
得票数 5
回答已采纳
1
回答
2(述)生成-意外噪声
、
、
、
、
我
目前正在尝试实现地形生成,如下页所述:http://accidentalnoise.sourceforge.net/minecraftworlds.html。2)如何解释perlin噪声值?在
我
的项目中,
我
已经将
浏览 0
提问于2013-06-18
得票数 2
回答已采纳
1
回答
Adagrad可以用来优化不可微
函数
吗
?
、
我
正在读一本书(TensorFlow For Dummies,Matthew Scarpino),这里说:但我在其他地方都没见过这样的说法。所以我想知道: 我们真的可以仅仅因为我们
使用
Adagrad而优化不可微损失
函数
吗
?
浏览 0
提问于2019-02-16
得票数 3
回答已采纳
1
回答
利用
梯度
函数
R的
数值
Hessian
、
、
、
我
需要用 my
梯度
函数
(用公式编程,而不是用数字编程)来计算
函数
的Hessian。像numDeriv或rootSolve这样的包
使用
数值
梯度
计算不满足
我
需要的值。
我
需要在包内部执行(没有单独的方法可以调用),但是在nlopt包中处理优化任务并将其最优值传递给optim以获得hessian的唯一方法对
我
的程序来说太昂贵了。因此,
我
需要一些
函数
来计算Hessian,
使用</em
浏览 3
提问于2017-02-05
得票数 1
回答已采纳
2
回答
如何利用matlab对
梯度
进行二维卷积?
、
我
试图在高斯核和
梯度
算子之间进行2D卷积。由于
梯度
由垂直分量和水平分量组成,
我
的问题是如何选择高斯核的大小。
我
试过如下,G=fspecial('gaussian',[size(u,1) size(u,2)],1);你能帮我理解一下
我
所尝试的是否正确
吗
?
浏览 1
提问于2020-11-30
得票数 0
回答已采纳
2
回答
如何
使用
IPOPT在Pyomo中指定
梯度
、
、
初级问题二级问题 默认情况下,Pyomo+IPOPT是如何处理这个问题的?当我用Pyomo+IPOPT解决一个简单的非线性方程组时,它的部分输出包括“目标
梯度
评估的数目”...but,它是如何计算
梯度</e
浏览 1
提问于2019-04-18
得票数 1
回答已采纳
2
回答
如何将tensorflow softmax替换为max,以便在神经网络的输出层生成一个热向量?
、
、
、
、
对于分类问题,在神经网络的最后一层
使用
softmax
函数
。如果不能得到精确的0和1,那么
数值
应该足够接近。
我
正在考虑多次应用softmax,但不建议这样做,
我
也不明白背后的原因。 请建议一个
可</e
浏览 0
提问于2019-07-01
得票数 2
6
回答
有没有什么“标准”的方法来计算
数值
梯度
?
、
、
、
我
正在尝试在c++中计算光滑
函数
的
数值
梯度
。参
数值
可以从0到非常大的数字(可能是1e10到1e20?)
我
使用
函数
f(x,y) = 10*x^3 + y^3作为测试平台,但我发现如果x或y太大,
我
无法获得正确的
梯度
。下面是
我
计算
梯度
的代码:#include <cmath> #include <cassert>
浏览 2
提问于2016-08-09
得票数 3
1
回答
Python中的参数优化
、
、
、
给定一个Python可调用
函数
,它返回一个适应度度量(0.0=horrible,0.5=ok,1.0=perfect)及其参数描述(type=bool|int|float|nominal,min,max
我
并不是在寻找一个详尽的、有保证的全局最优。一个近似值就可以了。
我
看过scipy的模块被引用了很多次,还有scikit learn的。这两者之间的实际区别是什么?还有其他选择
吗
?
浏览 0
提问于2015-11-04
得票数 2
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
第四课反向传播算法与神经网络(二)
第四课反向传播算法与神经网络
一文读懂生成对抗网络GANs
第四篇:《机器学习之逻辑回归(上)》
机器学习中梯度下降法和牛顿法的比较
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券