LR-大家说的逻辑回归,一个非常常用的机器学习的模型,也是一个相对比较好理解的机器学习的模型。LR不仅仅直接来做分类,给出各种类别的概率(所以叫回归),还在深度学习中普遍的应用。
首先,什么是机器学习?其实就是模拟人类学习的过程。给你一批结构化的数据,这些数据有很多纬度,机器学习其实就是根据这些数据得到这批数据里面的规律,然后再碰到类似的问题可以高概率的给出合理的结果。
机器学习分为监督学习和非监督学习:监督学习也就是数据已经有了标注,也就是每一条属于什么,然后基于此学习达到误差较小,比如已知一批地区房价数据,预测新的房子的价格;非监督学习就是事先不知道这批数据是什么,然后通过聚类等方法给出不同数据的类别等,比如聚类。
再说回归或者分类:分类其实就是离散的情况,比如硬币正反;回归就是预测结果是连续的,比如房子的价格。
再说LR,逻辑回归,从名字看是回归,实际即可以做回归也可以做分类,只不过LR和普通的分类模型不同的是,LR给出的是分类类别的概率,而其他给出的是最终的类别。
说到回归,先说下线性回归,LR属于广义线性回归的一种,其实LR已经融合了非线性的特性。
【线性回归】
下面介绍下梯度下降的一个理论:
于是我们就可以一直沿着梯度下降的地方去寻找最小值,直到收敛:
repeat until coverage{
}
alpha是步长,可以控制收敛的速度。
【LR】
讲完了线性回归,下面逻辑回归就相对简单了。
LR暂时就先说到这里吧。
领取专属 10元无门槛券
私享最新 技术干货