腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(514)
视频
沙龙
1
回答
如何
利用
导数
和
梯度
下降
求
x
的
最小化
函
数值
python
、
r
、
machine-learning
、
logistic-regression
给定函数f(
x
) =
x
^2 + 6
x
,
如何
在R或Python中使用
导数
和
梯度
下降
来找到
最小化
此函数
的
x
的
值?
浏览 11
提问于2021-02-03
得票数 0
1
回答
多元线性回归
的
梯度
下降
linear-regression
、
gradient-descent
我知道
的
:( ii)现在,∑{ hThetax(i) - y(i) }:指具有给定
的
Theta值
的
总错误。误差是指预测值{ hThetax(i) }与实际值之间
的
差异。y(i)结尾
的
Xj^(i)代表什么?我们在实现多元线性回归
梯度
下降
时是否做了以下工作?
浏览 4
提问于2017-02-02
得票数 2
回答已采纳
1
回答
C++传递函数为
函
子
c++
、
functor
我对
函
子
的
使用有问题。下面显示了一个
函
子,它接受任何函数并返回其函
数值
和
导数
。Funcd { double f; double operator() (double &
x
){ } void df(double &
x
, d
浏览 0
提问于2016-06-13
得票数 1
回答已采纳
1
回答
验证我对Logistic回归中MLE &
梯度
下降
的
理解
logistic-regression
、
gradient-descent
、
parameter-estimation
以下是我对Logistic回归中MLE与
梯度
下降
之间关系
的
理解。如果我错了,请纠正我:2) MLE是解析/精确
的<
浏览 0
提问于2022-05-09
得票数 -4
1
回答
全变差去噪中TV范数
的
梯度
image
、
optimization
、
gradient
、
variation
在链接中:,它说
梯度
如下 在另一个链接中,还提到
导数
如下所示 我知道
如何
计算散度,但我不明白总变差
的
梯度
与散度有什么关系。
浏览 5
提问于2016-06-27
得票数 0
1
回答
我想用
梯度
下降
法
求
任意离散函数
的
极小点。
optimization
、
gradient
我想用
梯度
下降
法
求
任何离散函数
的
极小点,但我不知道
如何
计算函数对某一特定点
的
导数
。16 25 36 49 64 81 100]对于
梯度
下降
算法
x
_next =
x
_now - alfa * derivative(
x
_now) 但
浏览 0
提问于2015-11-18
得票数 2
2
回答
负靶tf.losses.mean_squared_error
tensorflow
、
neural-network
、
reinforcement-learning
、
loss-function
、
q-learning
因为如果我有以下Q值作为我网络
的
输出:(0.1,0.2,1),并且我计算出我
的
实际Q值应该是(0.1,-5,1),如果我使用mean_squared_error函数,第二个q值
的
损失会变成正
的
,我错了吗因为有平方运算,所以坡度
下降
会不会基于正确
的
损失?
浏览 0
提问于2019-05-23
得票数 2
回答已采纳
3
回答
什么是反向传播?
backpropagation
我有一个概念上
的
问题,因为术语困扰着我。反向传播算法是一种神经网络训练算法,还是仅仅是一种递归算法来计算神经网络
的
雅可比?那么这个Jacobian将作为主要训练算法
的
一部分,例如最陡峭
的
下降
?因此,计算雅可比矩阵(神经网络输出到网络参数
的
偏
导数
)是一种训练算法还是一种
数值
方法?
浏览 0
提问于2021-09-08
得票数 4
回答已采纳
1
回答
什么是Hessian矩阵?
calculus
、
hessian-matrix
我知道Hessian矩阵是涉及多个自变量
的
函数
的
二阶
导数
检验。
如何
找到涉及多个变量
的
函数
的
最大值或最小值?它是
利用
Hessian矩阵
的
特征值还是它
的
主次元发现
的
?
浏览 6
提问于2020-01-26
得票数 0
回答已采纳
1
回答
线性回归学习
的
自设计目标
regression
、
linear-regression
多元线性回归是使用多个预测变量来预测响应变量
的
结果,如下所示:我理解学习$\beta$参数
的
典型目标是最小二乘,这意味着
最小化
$\epsilon_{i}$
的
平方
和
。现在我想要其他类型
的
目标,例如最大化$\epsilon$序列(或其他自指定目标)
的
Shannon熵。我谷歌了一下这个方向,但没有运气。我想知
浏览 0
提问于2015-06-28
得票数 1
3
回答
节点
梯度
在神经网络中代表什么?
neural-network
(代码是一团糟,我只是在乱搞)用这个简单
的
3层神经网络来处理: 我
的
计算结果
和
这本书差不多(把差异归因于四舍五入):h1 delta-> o1: 0.04518482993361776但是
梯度
到底是什么呢它们是单个节点对o1错误
的
贡献吗?
浏览 4
提问于2014-07-15
得票数 6
回答已采纳
1
回答
使用gsl multimin在同一范围内计算f
和
df/dx
c
、
multidimensional-array
、
gsl
、
minimization
gsl库算法如下: 您必须提供n个变量
的
参数函数,以便使
最小化
器在其上运行。您还可能需要提供一个计算函数
梯度
的
例程,以及一个同时计算函
数值
和
梯度
的
第三个例程。有几种情况下,一旦计算了函
数值
,它
的
导数
可能更容易计算,例如:让f(
x
,y) = exp(
x
* g(y)),其中g(y)可能计算成本很高,那么简单地使用g(y) = log(f)/
x</
浏览 3
提问于2014-02-17
得票数 1
回答已采纳
2
回答
关于反传播
和
sigmoid函数
neural-network
我一直在读这本关于安:
的
电子书目标输出产出(1-产出)ErrorB=OutputB(1-OutputB)(TargetB-OutputB) 我
的
意思是,为什么我要添加O
的
一部分(1-O),我尝试了不同
的
价值观,但我真的不明白为什么它应该是那样
的
。
浏览 0
提问于2015-01-30
得票数 0
回答已采纳
5
回答
梯度
下降
和
牛顿
梯度
下降
的
区别是什么?
machine-learning
、
data-mining
、
mathematical-optimization
、
gradient-descent
、
newtons-method
我知道
梯度
下降
是做什么
的
。基本上,它试图通过缓慢向下移动曲线来朝着局部最优解移动。我想知道平面
梯度
下降
法
和
牛顿法
的
实际区别是什么?从维基百科上,我读到了这样一句简短的话:“牛顿
的
方法使用曲率信息来选择更直接
的
路线。”直观地说,这意味着什么?
浏览 3
提问于2012-08-22
得票数 68
回答已采纳
1
回答
神经网络:反向传播阶段一步一步
的
崩溃?
neural-network
、
backpropagation
我必须设计一个功能强大
的
神经网络
的
动画视觉表示(即使用UI,允许您调整值等)。它
的
主要目的是帮助人们想象不同
的
数学操作是
如何
和
何时在慢动作、实时动画中执行
的
。我
的
可视化工具
和
UI一起设置,它允许你调整值
和
改变神经元
的
布局,以及前馈阶段
的
可视化,但是由于我实际上根本不擅长神经网络,所以我很难找到最佳
的
方法来可视化反向传播阶段--主要是因为我在这一阶段找出了精确<em
浏览 0
提问于2021-01-27
得票数 2
回答已采纳
2
回答
渐变
下降
数学实现解释需要。
math
、
machine-learning
、
linear-algebra
、
linear-regression
、
logistic-regression
我知道解决方案,但我不明白下面的方程式是
如何
被转换成代码
的
。 grad = (1/m) * ((sigmoid(
X
* theta)-y)' *
X
);
浏览 3
提问于2016-11-11
得票数 2
回答已采纳
1
回答
多项式回归--两种算法
的
结果精度
algorithm
、
machine-learning
、
regression
我知道,我可以找到一个多项式回归系数做(
X
'
X
)^-1 *
X
'y (其中
X
'是转置,详见 )。我想知道
的
是这些方法中
的
一种相对于另一种
浏览 4
提问于2014-01-20
得票数 0
回答已采纳
1
回答
创建神经网络
python
、
python-3.x
、
neural-network
、
backpropagation
我在python中创建了一个非常简单
的
神经网络。不过,我所要求
的
并不是任何特定
的
代码,而是它是
如何
工作
的
一般概念。我了解输入,权值等,一切在前向传播。我不明白
的
是反向传播。它将输出与所需
的
输出进行比较,并计算错误(差异),但它
如何
更改所有权重以使其正确?特别是你怎么能改变不同
的
重量(不是都一样)?其次,当你改变权重,你
如何
使它工作在多个输入,而不仅仅是一个或另一个输入? 最后,偏见是做什么
的
,你<e
浏览 4
提问于2017-04-21
得票数 1
回答已采纳
2
回答
我可以实现任意凸损失函数
的
梯度
下降
吗?
numpy
、
mathematical-optimization
我有一个损失函数,我想试着
最小化
:
梯度
下降
或类似的方法可能会很有用我不能解析地计算这个函数
的
梯度</em
浏览 20
提问于2017-03-04
得票数 1
2
回答
反向传播
如何
与反向自动分化相同(或不相同)?
algorithm
、
neural-network
、
backpropagation
、
calculus
、
automatic-differentiation
有这样
的
主张: 更新:,自从写这篇文章以来,我发现这在“深度学习”6.5.9节中有介绍。见。我还发现,这篇论文对Haber
和
Ruthotto
的
“深度神经网络<em
浏览 4
提问于2014-05-06
得票数 14
回答已采纳
点击加载更多
相关
资讯
线性回归的最小二乘法与梯度下降法之R实现
最优化方法:梯度下降
机器学习中的梯度下降法
为什么梯度是函数变化最快的方向
掌握机器学习数学基础之优化基础(三)
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
腾讯会议
活动推荐
运营活动
广告
关闭
领券