前言:正所谓每一个结果的出现都是一系列的原因导致的,当构建机器学习模型时候,有时候数据特征异常复杂,这就需要经常用到数据降维技术,下面主要介绍一些降维的主要原理
在实际的机器学习项目中,特征选择/降维是必须进行的,因为在数据中存在以下几个 方面的问题:
当然有时候也存在特征矩阵过大, 导致计算量比较大,训练时间长的问题
常用的降维方法有:
主成分析(PCA):将高纬的特征向量合并称为低纬度的特征属性,是一种无监督 的降维方法。 算法目标是通过某种线性投影,将高维的数据映射到低维的空间中表 示,并且期望在所投影的维度上数据的方差最大(最大方差理论),以此使用较 少的数据维度,同时保留较多的原数据点的特性。
;从而我们可以得到 PCA的最优目标函数是:
进行拉格朗日求解:
求偏导:
可以发现如果,此时将XXT看成一个整体A,那么求解W的过程恰好就是求解矩 阵A的特征向量的过程,所以我们可以认为PCA的计算其实就是对进行去中心化 后的数据的协方差矩阵求解特征值和特征向量。 一般情况下特征值的求解都比较复杂,这里可以用SVD分解来求: 而且此时恰好XXT是对角矩阵,所以我们可以将其进行特征分解:
另外对矩阵X进行SVD矩阵分解,那么可以得到下列式子:
线性判断分析(LDA):LDA是一种基于分类模型进行特征属性合并的操作,是一 种有监督的降维方法。 LDA的原理是,将带上标签的数据(点),通过投影的方法,投影到维度更低的 空间中,使得投影后的点,会形成按类别区分,一簇一簇的情况,相同类别的点, 将会在投影后的空间中更接近。用一句话概括就是:“投影后类内方差最小,类 间方差最大”
*数学原理(投影后类内方差最小,类 间方差最大)
假定转换为w,那么线性转换函数为:
并且转换后的数据是一维的 考虑二元分类的情况,认为转换后的值大于某个阈值,属于某个类别,小于等于 某个阈值,属于另外一个类别,使用类别样本的中心点来表示类别信息,那么这 个时候其实就相当于让这两个中心的距离最远:
同时又要求划分之后同个类别中的样本数据尽可能的接近,也就是同类别的投影 点的协方差要尽可能的小。
结合着两者,那么我们最终的目标函数就是:
对目标函数进行转换(A、B为方阵,A为正定矩阵):
该式子和PCA降维中的优化函数一模一样,所以直接对中间的矩阵进行矩阵分解即可。
相同点:
扫码关注腾讯云开发者
领取腾讯云代金券
Copyright © 2013 - 2025 Tencent Cloud. All Rights Reserved. 腾讯云 版权所有
深圳市腾讯计算机系统有限公司 ICP备案/许可证号:粤B2-20090059 深公网安备号 44030502008569
腾讯云计算(北京)有限责任公司 京ICP证150476号 | 京ICP备11018762号 | 京公网安备号11010802020287
Copyright © 2013 - 2025 Tencent Cloud.
All Rights Reserved. 腾讯云 版权所有