特征值和特征向量这种在大学出现的知识,当时觉得没啥用,等到工作了才发现用处挺大,赶紧再复习下,恨不得能够重新坐回大学课堂好好学,最主要的有大学老师免费答疑。特征向量和特征值在计算机视觉和机器学习中有许多重要的应用。今天就做个读书笔记,分享给大家,字丑不要嘲笑,我也想写好,吸引一波粉丝。
内容目录
基本公式特征值计算特征向量计算几何表示
基本公式
矩阵[A]
特征值λ(读作:Lambda)拉姆达
特征矩阵:[X]
基本公式:
[A][X] = λ[X]
([A] - λ[I])[X] = 0
其中I是单位矩阵
特征值计算
[X]不是空向量,只有在(A-λI)不可逆的时候才能被定义。如果一个方阵是不可逆的,这意味着它的行列式必须等于零。因此,要找到A的特征向量,我们只需要搞定公式:
Det ([A] - λ[I]) = 0
代入A的值,求得特征值就行
特征向量计算
A有了,特征值有了,代入公式:([A] - λ[I])[X] = 0
计算就OK,注意特征向量只是代表方向或者斜率,所以最后特征向量其实有无数个笔记里面只是一个例子。
特征向量X1计算
特征向量X2计算
几何表示
特征向量仅仅代表一个方向(相应特征值表示幅度)
特征值的大小表示了椭圆的横轴和纵轴的长度
椭圆旋转后刚好能够让两个点(2维度矩阵构成的点)落在椭圆上。
领取专属 10元无门槛券
私享最新 技术干货