如果我们有一个低方差的模型,增加数据集的规模可以帮助你获得更好的结果。但是大数据集意味着计算量的加大,以线性回归模型为例,每一次梯度下降迭代,我们都需要计算训练集的误差的平方和,当数据集达到上百万甚至上亿的规模时,就很难一次性使用全部的数据集进行训练了,因为内存中放不下那么多的数据,并且计算性能也达不到要求。
不过,在使用大数据集训练模型之前,首先应该做的事是去检查一个这么大规模的训练集是否真的必要,也许我们只用1000 个训练集也能获得较好的效果,我们可以绘制学习曲线来帮助判断,如果训练误差和验证误差如下图左所示的趋势,那么加大数据集就很可能达到右边的效果,则加大数据集是必要的。
回顾线性回归中的梯度下降流程,即不断重复求偏导并更新对应
的直到收敛。观察求偏导的式子(图中蓝框所示),需要对所有数据进行一次相减并求和的过程,如果数据集达到上亿,那么一次梯度下降就需要进行上亿次的求和过程,这是很难实现的。我们可以使用随机梯度下降法,而我们之前介绍的梯度下降法也可以成为批量(Batch)梯度下降法。其中的批量(Batch)表示所有用于训练的数据。
下面给出随机梯度下降的流程:
可以看到,和梯度下降不同,随机梯度下降先将数据集进行打乱,然后每次只使用数据集中的一个样本进行更新参数,然后遍历整个数据集。
下图是小批量梯度下降法的流程,与随机梯度下降不同的是,它选取数据集的一部分进行参数更新,而不是用每个样本更新一次。这样的好处是,使用合适的向量化,可以加快运算速度。一般
取 2-100,即每次使用2-100个数据进行参数更新。
在批量梯度下降中,我们可以令代价函数
为迭代次数的函数,绘制图表,根据图表来判断梯度下降是否收敛。但是,在大规模的训练集的情况下,这是不现实的,因为计算代价太大了。
在随机梯度下降中,我们在每一次更新
之前都计算一次代价,然后每
次迭代后,求出这
次对训练实例计算代价的平均值,然后绘制这些平均值与
次迭代的次数之间的函数图表。
对于上面左下方的图,我们得到一个颠簸不平但是不会明显减少的函数图像(蓝线)。我们可以增加
来使得函数更加平缓,也许便能看出下降的趋势了(红线);或者可能函数图表仍然是颠簸不平且不下降的(粉色线),那么我们的模型本身可能存在一些错误。如果我们得到的曲线如上面右下方所示,不断地上升,那么我们可能会需要选择一个较小的学习率
。
我们也可以令学习率随着迭代次数的增加而减小,例如令:
,随着我们不断地靠近全局最小值,通过减小学习率,我们迫使算法收敛而非在最小值附近徘徊。但是通常我们不需要这样做便能有非常好的效果了,所以对
进行调整所耗费的计算通常不值得。
现在来讨论一种新的大规模的机器学习机制,叫做在线学习机制。在线学习机制让我们可以模型化问题。如果你有一个由连续的用户流引发的连续的数据流,进入你的网站,你就可以使用在线学习机制,从数据流中学习用户的偏好,然后使用这些信息来优化一些关于网站的决策(比如大数据杀熟)。
在线学习算法指的是对数据流而非离线的静态数据集的学习。许多在线网站都有持续不断的用户流,对于每一个用户,网站可以通过在线学习,在不将数据存储到数据库中便顺利地进行算法学习。在线学习的算法与随机梯度下降算法有些类似,我们对单一的实例进行学习,而非对一个提前定义的训练集进行循环。其流程如下图所示:
一旦对一个数据的学习完成了,我们便可以丢弃该数据,不需要再存储它了。这种方式的好处在于,我们的算法可以很好的适应用户的倾向性,算法可以针对用户的当前行为不断地更新模型以适应该用户。
如下图所示,假设我们的数据集中有400条数据,我们可以将其分成4等分,分别在4台计算机中并且计算梯度,然后最后将计算出来的梯度汇总,这样就能提升4倍的速度。只要某个机器学习的算法满足起主要的运算量来自于某种求和,那么你就可以将这个求和拆分并行化处理。
扫码关注腾讯云开发者
领取腾讯云代金券
Copyright © 2013 - 2025 Tencent Cloud. All Rights Reserved. 腾讯云 版权所有
深圳市腾讯计算机系统有限公司 ICP备案/许可证号:粤B2-20090059 深公网安备号 44030502008569
腾讯云计算(北京)有限责任公司 京ICP证150476号 | 京ICP备11018762号 | 京公网安备号11010802020287
Copyright © 2013 - 2025 Tencent Cloud.
All Rights Reserved. 腾讯云 版权所有