是否有理由认为SVD比PCA (通过特征集)更好地去除机器学习模型的预测值?
发布于 2018-10-26 04:25:58
据我所知,你的问题的答案是否定的。关于寻找不同变量之间的相关性,它们的作用是相同的。它们既捕获线性关联,又不捕获非线性关联。它们之间的区别主要在于数值计算,这使得SVD比传统的PCA更方便。我建议大家看看这的答案和这的解释。
最后,让我们讨论使用SVD的数值优势。在计算机上实际计算主元分解的一个基本方法是直接对X^TX进行特征值分解。事实证明,这样做会带来一些潜在的严重的数值问题,可以避免使用SVD。
https://datascience.stackexchange.com/questions/40233
相似问题
领取专属 10元无门槛券
AI混元助手 在线答疑
洞察 腾讯核心技术
剖析业界实践案例