腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(385)
视频
沙龙
1
回答
Python
中
的
全
批次
、
随机
和
小批次梯度
下降
,
线性
回归
、
、
我正在尝试用
Python
来理解
和
实现这些算法。为此我使用了sklearn.linear_model.SGDRegressor,我
的
代码如下所示:from sklearn import linear_modelModel.intercept_)RMSE: 1.1051202460564218[ 0.29586701] 据我从理论上理解:当chunksize =1时,
小批
量梯度
下降
与
随机
梯度
浏览 6
提问于2018-02-23
得票数 2
回答已采纳
1
回答
为什么平均梯度工作在梯度
下降
?
、
在
全
批次梯度
下降
或
小批
-GD,我们得到梯度从几个训练例子。然后,我们将它们平均起来,得到一个“高质量”梯度,从几个估计
中
得到,并最终立即使用它来校正网络。因此,与其他培训实例相比,每个样本都有其最陡
的
下降
方向,指向不同
的
方向。平均这些方向是不合理
的
吗?但效果如此之好。事实
浏览 0
提问于2018-06-22
得票数 13
回答已采纳
1
回答
如何在小数据集下选择神经网络
的
超参数
和
策略?
、
我目前正在做语义分割,但是我有非常小
的
数据集, 我只有大约700张带有数据增强
的
图像,例如,翻转可以 设置为2100张图像。 不确定是否足够完成我
的
任务(语义分割有四个 类)。我想使用批量归一化,
和
小批
量梯度
下降
真正让我挠头
的
是,如果批量太小,
批次
归一化效果不佳,但如果
批次
较大, 这似乎等同于
全
批次梯度
下降
。 我想知道样本数量
和
批量大小之间是否有类似于标准比例
浏览 45
提问于2019-03-21
得票数 0
回答已采纳
2
回答
我们可以用减小
的
步长来代替SGD
中
的
小批
量吗?
、
、
、
据我所知,
小批
处理可以减少梯度
的
方差,但我也在考虑,如果我们使用减小
的
步长,并且在每次迭代
中
只使用一个样本,我们是否可以达到相同
的
结果?我们能比较它们
的
收敛速度吗?
浏览 0
提问于2019-02-28
得票数 0
1
回答
Python
、GD
和
SGD在
线性
回归
上
的
实现
、
、
、
我试着在一个简单
的
线性
回归
例子
中
理解
和
实现这些算法。我很清楚,
全
批次梯度
下降
使用所有数据来计算梯度,而
随机
梯度
下降
只使用一个数据。
全
批次梯度
下降
:from math import sqrt df = df.sample(frac=learnin
浏览 22
提问于2018-02-18
得票数 2
1
回答
的
批次
大小。或者:如何诊断神经网络
的
偏差/方差?
、
、
我目前正在使用ScikitLearn
中
的
两个类处理一个分类问题,其中有求解器adam
和
激活relu。为了探索我
的
分类器是否存在高偏差或高方差,我用Scikitlearns内置函数绘制了学习曲线: 应该是这样
的
吗?我认为学习曲线是根据独立于任何
批次
/时代
的
训练数据来处理准确性分数
的
吗
浏览 1
提问于2019-03-26
得票数 1
回答已采纳
3
回答
小批
量梯度
下降
,亚当
和
纪元
、
、
我正在学习一门关于
Python
中
的
深度学习
的
课程,我被一个例子
的
以下几行困住了:regressor.fit(X_train, y_train, epochs = 100, batch_size = 32) 根据我所知道
的
定义,1个epoch =遍历所有训练示例一次以进行一次权重更新优化器采用batch_size算法
浏览 2
提问于2018-07-17
得票数 1
1
回答
使用tensorflow进行
线性
回归
的
神经网络
、
、
、
我刚刚开始学习tensorflow,并且正在实现一个
线性
回归
的
神经网络。我遵循了一些在线教程,能够写出代码。当我运行代码时,我得到了Nan作为预测
的
准确性。我使用
的
代码如下所示X = tf.placeholder("float", shape=[None, x_size])sess.run(optimizer, feed_dict={
浏览 0
提问于2017-03-11
得票数 0
1
回答
python
中
的
线性
回归
小批次梯度
下降
:按
批次
大小拆分训练
和
验证数据
、
、
、
我试图将训练
和
验证数据按
批次
大小分开,并找到验证rmse。训练特征数据
的
大小为11000。验证特征数据
的
大小为2750。但是,当我在for循环中使用zip函数时。它将for循环限制在较小
的
范围内,即2750。 有人知道我该如何解决这个问题吗?我已经被困两天了。
浏览 8
提问于2020-11-16
得票数 1
2
回答
“
小批次
”在深度学习
中
的
意义是什么?
、
、
、
、
我正在选修速成课程,在“第二课- SGD”
中
写着: 什么是迷你
批次
?
小批次
和
普通
批次
有什么区别?
浏览 1
提问于2019-10-07
得票数 5
回答已采纳
2
回答
神经网络本质上是一种在线算法吗?
、
、
我做机器学习已经有一段时间了,但是即使经过一段时间
的
练习,也会有一些零碎
的
东西聚集在一起。在神经网络
中
,通过一次传递(向前通过)来调整权重,然后在每个训练示例之后计算权重
的
偏导数(反向传递),并从初始权重
中
减去这些偏导数。反过来,新权重
的
计算在数学上是复杂
的
(你需要计算权重
的
偏导数,在神经网络
的
每一层计算误差-输入层除外)。 从定义上看,这不是一种在线算法吗?在每个训练示例之后,计算成本
和
新
的
权重?
浏览 0
提问于2016-01-09
得票数 5
回答已采纳
2
回答
GD、批GD、SGD
和
小型批处理SGD有什么不同?
、
、
这四种梯度
下降
函数之间有何不同?批GD
小批
量SGD
浏览 0
提问于2019-06-15
得票数 3
回答已采纳
2
回答
随机
梯度
下降
中
的
随机
部分是什么?
、
、
根据我
的
理解,一个
随机
过程,其值在某一时刻取决于先前采取
的
值,而且每次运行该过程时,所选择
的
路径可能是不同
的
。在一定
的
初始播种值之后,我们只能知道这个过程
的
限制
和
限制。利用
随机
梯度
下降
法对神经网络
的
权值进行更新。它
的
随机
部分是什么?在对变量进行某些初始化之后,如果在每次测试初始化后提供相同
的
输入数据集,则累积
的
错误函数将是相同<
浏览 0
提问于2017-09-28
得票数 3
4
回答
随机
梯度
下降
是分类器还是优化器?
、
、
、
我是机器学习
的
新手,我正在尝试为我
的
一个项目分析分类算法。我在sklearn库
中
偶然发现了SGDClassifier。但许多论文都将SGD作为一种优化技术。有人能解释一下SGDClassifier是如何实现
的
吗?
浏览 1
提问于2017-08-02
得票数 7
2
回答
是否有任何规则来选择一个
小批
的
大小?
、
、
、
当训练神经网络时,一个超参数是一个
小批
的
大小。常见
的
选择是每
小批
32、64
和
128个元素。 是否有任何关于
小批
量应该有多大
的
规则/指南?或任何研究培训效果
的
出版物?
浏览 0
提问于2017-04-17
得票数 32
回答已采纳
1
回答
处理大于内存
的
数组训练
python
中
的
神经网络
、
、
、
我正试图在
python
中
训练一个神经网络(backprop +梯度
下降
),我在google图书2克(英文)
的
基础上构建了它
的
功能,它最终将是大约10亿行数据,每行有20个功能。这将很容易超过我
的
内存,因此使用内存
中
的
数组(如numpy )将不是一个选项,因为它需要加载完整
的
训练集。我研究了numpy
中
的
内存映射,它可以解决输入层
的
问题(这是只读
的
),但我也需要在网
浏览 0
提问于2016-02-07
得票数 0
回答已采纳
6
回答
梯度
下降
和
随机
梯度
下降
有什么区别?
、
、
、
梯度
下降
和
随机
梯度
下降
有什么区别? 我对这些不太熟悉,你能用一个简短
的
例子来描述这种差异吗?
浏览 0
提问于2018-08-04
得票数 75
3
回答
在默认情况下,批处理Norm是否有点
随机
?
、
使用
全
批梯度
下降
,堆叠100层
和
使用alpha 0.0001
的
结果是稳定地减少误差.事实上,我不再能够堆叠100+层,只有接近10层
的
随机
性变得非常明显
和
难以控制。注意-我使用
的
是
全
批次梯度
下降
,有50
浏览 0
提问于2018-03-15
得票数 1
1
回答
theano
中
的
线性
回归
、
T.mean在
中
的
意义是什么?如果实现是矢量化
的
,我认为T.mean是有意义
的
。在这里,x
和
y到train(x, y)
的
输入是标量,cost只查找单个输入
的
平方误差,并对数据进行迭代。
浏览 4
提问于2016-08-22
得票数 1
回答已采纳
10
回答
为什么要对数据进行机器学习任务
的
调整?
、
、
在机器学习任务
中
,通常会对数据进行洗牌
和
规范化。标准化
的
目的是明确
的
(对于具有相同范围
的
特征值)。但是,在经历了很多挣扎之后,我没有找到任何有价值
的
理由来调整数据。我读过这里
的
这篇文章,讨论了什么时候需要对数据进行洗牌,但不清楚为什么要对数据进行洗牌。此外,我经常在算法(如Adam或SGD )中看到,我们需要批处理梯度
下降
(数据应该分离成
小批
,并且必须指定批处理大小)。根据这个帖子,对每个时代
的
数据进行洗牌对于每个<
浏览 0
提问于2017-11-09
得票数 64
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
随机梯度下降法和牛顿法的理论以及Python实现
深度解读流行梯度下降优化算法 正确训练模型的利刃!
机器学习100天-Day1501训练模型-线性模型
腾讯AI Lab现场陈述论文:训练L1稀疏模型的象限性消极下降算法
机器学习100天-Day1504训练模型-softmax回归
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券