腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(683)
视频
沙龙
2
回答
线性
回
归中
找不到
最优
参数
的
梯度
下降
、
、
、
我正在尝试实现
梯度
下降
算法,以便根据安德鲁·吴恩达
的
课程拍摄
的
以下图像来拟合一条直线以适应噪声数据。 ? ; % adding noise to dataJ_history = zeros(num_iters, 1); m = (length(xrange)); 我继续
浏览 48
提问于2019-04-07
得票数 0
回答已采纳
1
回答
线性
回
归中
梯度
下降
与正态方程
的
差异
、
、
嗨,我是
线性
回归
的
新手。我想知道和 机器学习在
线性
回
归中
何时使用
梯度
下降
和均方误差?或者什么时候在
线性
回
归中
使用哪一种算法?
浏览 0
提问于2018-10-04
得票数 1
1
回答
线性
回归-(
梯度
下降
与最佳拟合斜率)
、
我阅读了Andrew NG
的
机器学习教程,在
线性
回
归中
遇到了
梯度
下降
。当我尝试使用Python查找同样
的
内容时,我在youtube教程中找到了:向Souvik Saha Bhowmik致敬
浏览 2
提问于2016-10-20
得票数 0
1
回答
验证我对Logistic回
归中
MLE &
梯度
下降
的
理解
、
、
以下是我对Logistic回
归中
MLE与
梯度
下降
之间关系
的
理解。如果我错了,请纠正我: 1)利用对数似然函数wrt
的
偏导数估计
最优
参数
。每个
参数
&等于0。
梯度
下降
就像MLE一样,利用损失函数wrt
的
偏导数给出了
最优
参数
。每个
参数
。GD还在获取
参数
值
的
过程中使用诸如学习速率和步骤大小等超
参数</e
浏览 0
提问于2022-05-09
得票数 -4
1
回答
logistic回
归中
的
梯度
下降
、
、
、
Logistic和
线性
回归具有不同
的
成本函数。但我不明白logistic回
归中
的
梯度
下降
与
线性
回归是如何一致
的
。 通过推导平方误差代价函数,得到了
梯度
下降
公式。然而,在Logistic回
归中
,我们使用了一个对数成本函数。我想我在这里迷路了。
浏览 0
提问于2018-01-22
得票数 1
回答已采纳
1
回答
如果成本函数有交互作用,
梯度
下降
是否相同?
、
、
我们知道如何用
梯度
下降
来确定回归
参数
。如果成本函数为C=|Y-Y(X)|^2,我们将b更新为哪里是学习率和是成本函数C相对于b
的
偏微分。如果在多元回
归中
存在一种相互作用,并且我们希望坚持
线性
模型公式(不使用树或其他非
线性
回归器),那么成本函数仍然是一样
的
,我们是否只是用相同
的
方式更新b呢?即相互作用项
的
存在对
梯度
下降
没有影响。我没有看到有或没有相互作用
浏览 0
提问于2018-02-16
得票数 3
回答已采纳
2
回答
顺序或批
参数
估计
、
、
这就是我应该描述
的
问题。不幸
的
是,我研究
的
唯一一种在
线性
回
归中
估计
参数
的
方法是经典
的
梯度
下降
算法。这是“批处理”模式还是“顺序”模式?他们之间有什么区别?
浏览 0
提问于2018-05-13
得票数 3
2
回答
线性
回
归中
OLS与
梯度
下降
的
差异
、
我理解普通
的
最小二乘和
梯度
下降
所做
的
事情,但我只是对它们之间
的
区别感到困惑。
梯度
下降
是迭代
的
,而OLS则不是。
梯度
下降
是利用学习速率来达到最小值,而OLS则是用偏微分法求方程
的
极小值。 这两种方法在
线性
回
归中
都非常有用,但它们都给出了相同
的
结果:截距和系数
的
最佳可能值。它们之间有什么区
浏览 0
提问于2022-04-14
得票数 2
1
回答
对于特定
的
回归类型,
梯度
下降
总是找到全局最小值吗?
、
、
根据我
的
理解,
线性
回归被用来预测一个基于输入
的
输出,它使用一个
线性
方程来
最优
地拟合一些输入数据。利用损失函数对输入数据选择最佳拟合
线性
方程。通过模拟y= mx +b中m和b
的
值,可以找到具有
梯度
下降
的
最优
线性
方程组。 我
的
问题是,
梯度
下降
总是找到
线性
回归
的
全局最小损失吗?这个问题
的</
浏览 0
提问于2021-10-04
得票数 2
回答已采纳
1
回答
适合方法运行
的
时间是多少?
、
、
所以我用y= mx+b从头到尾写了
线性
回归,并运行了50个历次
的
算法,以最小化成本,得到最佳
的
参数
。 当我使用Scikit学习,我只是调用
线性
回归方法和拟合数据集,然后开始预测。适合方法运行
的
时间是多少?这不仅适用于
线性
回归,也适用于一般
的
其他ML方法。
浏览 0
提问于2018-03-13
得票数 0
1
回答
什么时候选择
梯度
下降
比
线性
支持向量机更有意义?
、
、
我知道,如果你使用过内核技巧,使用
梯度
下降
方法和支持向量机是很难
的
。在这种情况下,最好使用libsvm作为您
的
解决程序。但是,如果您不使用内核,而只是将其作为一个
线性
分离问题来处理,那么使用
梯度
下降
作为求解器
的
意义何在呢?
浏览 0
提问于2020-08-24
得票数 3
1
回答
梯度
下降
在
线性
回
归中
的
作用是什么?
、
、
有人能给我一个关于
梯度
下降
是如何在
线性
回
归中
使用
的
高层次视图吗?我知道
梯度
下降
基本上可以有效地找到一个局部最小值,但这实际上如何帮助形成对数据
的
回归?谁能给我一个事件
的
顺序,其中
的
线实际上是形成到数据点?我知道如何计算点
的
梯度
,只是不知道如何更有效地形成直线。
浏览 0
提问于2016-12-23
得票数 1
2
回答
在高级优化算法中会出现过度拟合吗?
、
、
、
、
在考瑟拉上参加安德鲁·吴( Andrew )
的
在线机器学习课程时,我遇到了一个名为过度拟合的话题。我知道
梯度
下降
在
线性
或logistic回
归中
会发生,但如果使用“共轭
梯度
”、"BFGS“和"L-BFGS”等高级优化算法,它会发生吗?
浏览 0
提问于2016-09-13
得票数 8
回答已采纳
2
回答
线性
回
归中
一般使用RMSE而不是MSE
的
原因
、
、
、
在
线性
回
归中
,为什么我们通常使用RMSE而不是MSE?我所知道
的
基本原理是,通过
梯度
下降
来最小化RMSE中
的
错误而不是MSE中
的
错误是容易
的
,但是我需要知道确切
的
原因。
浏览 0
提问于2020-01-19
得票数 3
回答已采纳
1
回答
线性
回
归中
的
梯度
下降
、
、
实际上,我想使用一个
线性
模型来拟合一组'sin‘数据,但结果表明,损失函数在每次迭代中都会变大。下面的代码有问题吗?(
梯度
下降
法)m=20;x = linspace(0,2*pi,20);y = sin(x*gradient;这是我想要
的
数据
浏览 2
提问于2015-03-09
得票数 1
回答已采纳
5
回答
线性
回
归中
的
梯度
下降
、
、
、
我正在尝试用java实现
线性
回归。我
的
假设是theta0 + theta1 * xi。我正在尝试计算theta0和theta1
的
值,以便使成本函数最小。我正在使用
梯度
下降
来找出值-while(repeat until convergence) calculate theta0 and theta1 simultaneously.在收敛之前我是机器学习
的
新手,刚刚开始编写基本
的
算法以获得更好
的
理解。任何帮助都将不胜感激。
浏览 7
提问于2014-01-11
得票数 2
1
回答
线性
规划优化和
梯度
下降
优化有什么区别?
、
在
线性
规划问题中,我们建立了两个
线性
函数和一个优化函数。在这里,我们找到两个
线性
函数相交
的
点,并在优化函数中替换这些值,得到最大值或最小值。 这和
梯度
优化有什么不同呢?有人能从数学上详细说明这一点吗。
浏览 2
提问于2019-04-14
得票数 2
回答已采纳
1
回答
OLS回归能从完整
的
数据序列中预测吗?
、
、
在线阅读和遵循这个例子来自于,我知道OLS可以用来找出序列中间隙之间
的
数据(内插?)但我已经有了一个完整
的
序列,并希望预测它
的
未来(我认为是外推)。OLS能用来做这个吗?
浏览 0
提问于2020-03-21
得票数 1
回答已采纳
3
回答
遗传算法(GAs):是否只考虑作为优化算法?气体在机器学习中有用吗?
、
、
作为一个快速
的
问题,遗传算法被用来做什么?我在其他地方读到,它们应该被用作优化算法(类似于我们使用
梯度
下降
来优化
最优
参数
的
方法,用
线性
回归,神经网络.)。如果是这样的话,为什么这些气体在机器学习中没有那么多
的
存在(或者至少我在文献中没有看到太多)?
浏览 0
提问于2019-10-28
得票数 6
回答已采纳
1
回答
从
梯度
下降
更新规则获取直觉
、
、
梯度
下降
更新规则:将这些值用于此规则:在使用0.07
的
学习速率进行两次迭代后,输出
的
值θ为-5150.8031.9763e+04因此,在第二次迭代之后,θ似乎变大了,这意味着学习速度太大了。我刚刚开始尝试理解
梯度
下降
,所以请指出我
的
逻辑中
的
任何错误。alp
浏览 3
提问于2015-07-18
得票数 3
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
深度学习工程师(五)——逻辑回归中的梯度下降
梯度下降算法以及与线性回归模型的结合
机器学习系列 4:线性回归的梯度下降算法
全量梯度下降-逻辑回归参数的优化
线性回归的最小二乘法与梯度下降法之R实现
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券