Loading [MathJax]/jax/output/CommonHTML/jax.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >矩阵分解 -2- 特征值分解

矩阵分解 -2- 特征值分解

作者头像
为为为什么
发布于 2022-10-05 08:52:14
发布于 2022-10-05 08:52:14
1.8K0
举报
文章被收录于专栏:又见苍岚又见苍岚

线性代数中,特征分解(Eigendecomposition),又称谱分解(Spectral decomposition)是将矩阵分解为由其特征值和特征向量表示的矩阵之积的方法。

定义

  • 线性代数中,特征分解(Eigendecomposition),又称谱分解(Spectral decomposition)是将矩阵分解为由其特征值和特征向量表示的矩阵之积的方法。

基础理论

  • 维非零向量 的矩阵 的特征向量,当且仅当下式成立:
  • 其中 为一标量,称为 对应的特征值。也称 为特征值 对应的特征向量。也即特征向量被施以线性变换 只会使向量伸长或缩短而其方向不被改变。
  • 由上式可得
  • 称多项式 为矩阵 的特征多项式。上式亦称为矩阵 的特征方程。特征多项式是关于未知数 次多项式。由代数基本定理,特征方程有 个解。这些解的解集也就是特征值的集合,有时也称为“谱”(Spectrum)。
  • 我们可以对多项式 p 进行因式分解,而得到
  • 其中
  • 对每一个特征值 λi ,我们都有下式成立:
  • 对每一个特征方程,都会有 个线性无关的解。这 个向量与一个特征值 相对应。这里,整数 称为特征值 的几何重数,而 称为代数重数。
  • 这里需要注意的是几何重数与代数重数可以相等,但也可以不相等。一种最简单的情况是 。特征向量的极大线性无关向量组中向量的个数可以由所有特征值的几何重数之和来确定。

特征值分解

  • 是一个 的方阵,且有 个线性独立的特征向量 。这样, 可以被分解为
  • 其中 方阵,且其第 列为 的特征向量
  • 是对角矩阵,其对角线上的元素为对应的特征值,也即 。这里需要注意只有可对角化矩阵才可以作特征分解。 比如Extra close brace or missing open braceExtra close brace or missing open brace不能被对角化,也就不能特征分解。
  • 一般来说,特征向量 一般被单位化(但这不是必须的)。未被单位化的特征向量组 , 也可以作为 的列向量。

对称矩阵

  • 任意的 实对称矩阵的特征值都是实数且都有 个线性无关的特征向量。并且这些特征向量都可以正交单位化而得到一组正交且模为 1 的向量。故实对称矩阵 可被分解成
  • 其中 为 正交矩阵, 为实对角矩阵。

通过特征分解求反(逆)矩阵

  • 若矩阵 可被特征分解并特征值中不含零,则矩阵 为非奇异矩阵,且其逆矩阵可以由下式给出:
  • 因为 为对角矩阵,其逆矩阵容易计算出:

参考资料

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2022年9月27日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
特征值和特征向量
$$ \begin{array} \mathbf{I A} \mathbf{x}=\mathbf{I} \cdot \lambda \mathbf{x} \\ \mathbf{A} \mathbf{x}=(\lambda I) \mathbf{x} \end{array} $$
为为为什么
2022/09/30
1K0
矩阵特征值-变化中不变的东西
解特征多项式方程,得到的λ就是矩阵A的特征值。构造特征方程: 特征矩阵的行列式就是特征多项式。
云深无际
2024/10/12
1810
矩阵特征值-变化中不变的东西
【数学基础】特征值,特征向量与SVD奇异值分解
本文是深度学习笔记系列文章,本次文章将介绍线性代数里比较重要的概念:特征值,特征向量以及SVD奇异值分解。
zenRRan
2020/02/18
1.9K0
矩阵分析笔记(七)特征值与特征向量
设\mathscr{A}是数域\mathbb{F}上的n维线性空间V的线性变换,若存在\alpha \neq 0, \lambda \in \mathbb{F},使
mathor
2020/10/23
1.8K0
矩阵分析笔记(七)特征值与特征向量
常见的几种矩阵分解方式
项目github地址:bitcarmanlee easy-algorithm-interview-and-practice 欢迎大家star,留言,一起学习进步
全栈程序员站长
2022/09/02
2.4K0
常见的几种矩阵分解方式
【Math for ML】矩阵分解(Matrix Decompositions) (上)
设\(λ=λ_i\)是矩阵\(A\)的一个特征值,则有方程\((A-λ_iv)x=0\),可求得非零解\(x=p_i\)即为\(λ_i\)对应的特征向量。(若\(λ_i\)为实数,则\(p_i\)可取实向量;\(λ_i\)为复数,则\(p_i\)可取复向量)
marsggbo
2018/12/27
1.1K0
零空间
在数学中,一个算子 A 的零空间是方程 Av = 0 的所有解 v 的集合。 定义 在数学中,一个算子 A 的零空间是方程 Av = 0 的所有解 v 的集合。它也叫做 A 的核, 核空间。用集合建造符号表示为 \operatorname{Null}(A)={\mathbf{v} \in V: A \mathbf{v}=\mathbf{0}} 尽管术语核更加常用,术语零空间有时用在避免混淆于积分变换的情境中。应当避免把零空间混淆于零向量空间,它是只有零向量的空间。 例1 考虑函数 {\displ
为为为什么
2022/09/30
9090
零空间
线性代数之相似矩阵、二次型
(1)特征值求法:解特征方程; (2)特征向量的求法:求方程组的基础解系。 (3)特征值的性质:
用户11315985
2024/10/16
2120
线性代数之相似矩阵、二次型
python3-特征值,特征分解,SVD
1.设A为n阶矩阵,若存在常数λ及n维非零向量x,使得Ax=λx,则称λ是矩阵A的特征值,x是A属于特征值λ的特征向量。 A的所有特征值的全体,叫做A的谱,记为λ(A) 2.特征分解(Eigendecomposition),又称谱分解(Spectral decomposition)是将矩阵分解为由其特征值和特征向量表示的矩阵之积的方法。需要注意只有对可对角化矩阵才可以施以特征分解。 一个矩阵的一组特征向量是一组正交向量。
py3study
2020/01/06
1.6K0
AI数学基础之:奇异值和奇异值分解
奇异值是矩阵中的一个非常重要的概念,一般是通过奇异值分解的方法来得到的,奇异值分解是线性代数和矩阵论中一种重要的矩阵分解法,在统计学和信号处理中非常的重要。
程序那些事
2021/02/23
7060
SVD奇异值分解 中特征值与奇异值的数学理解与意义
更像是矩阵分解多一点,没有涉及到SVD的数学意义,这篇博客大概会写一些数学SVD的数学理解,以及SVD在PCA和推荐算法上面的应用。
大鹅
2021/06/16
2.3K0
矩阵的特征分解(推导+手算+python计算+对称矩阵的特征分解性质)
推荐文章:https://cloud.tencent.com/developer/article/2470928?shareByChannel=link
算法一只狗
2024/12/08
2010
矩阵的特征分解(推导+手算+python计算+对称矩阵的特征分解性质)
矩阵特征值和特征向量怎么求_矩阵的特征值例题详解
  设 A 是n阶方阵,如果存在数m和非零n维列向量 x,使得 Ax=mx 成立,
全栈程序员站长
2022/09/20
1.3K0
特征值和特征向量及其计算
在第2章中,我们已经反复强化了一个观念——矩阵就是映射,如果用矩阵乘以一个向量,比如:
老齐
2021/07/28
1.8K0
【Math for ML】矩阵分解(Matrix Decompositions) (下)
Singular Value Decomposition (SVD)是线性代数中十分重要的矩阵分解方法,被称为“线性代数的基本理论”,因为它不仅可以运用于所有矩阵(不像特征值分解只能用于方阵),而且奇异值总是存在的。
marsggbo
2018/12/28
1.1K0
奇异值分解(SVD)原理与在降维中的应用
    奇异值分解(Singular Value Decomposition,以下简称SVD)是在机器学习领域广泛应用的算法,它不光可以用于降维算法中的特征分解,还可以用于推荐系统,以及自然语言处理等领域。是很多机器学习算法的基石。本文就对SVD的原理做一个总结,并讨论在在PCA降维算法中是如何运用运用SVD的。
刘建平Pinard
2018/08/14
6910
奇异值分解(SVD)原理与在降维中的应用
矩阵分析(十三)矩阵分解
设A\in \mathbb{C}_r^{m\times n},则存在B\in \mathbb{C}_r^{m\times r}, C\in \mathbb{C}_r^{r\times n},满足
mathor
2021/04/02
1.8K0
特征值和特征向量的解析解法--正交矩阵
正交矩阵是一类非常重要的矩阵,其具有许多特殊性质和应用。在特征值和特征向量的解析解法中,正交矩阵发挥着重要的作用。本文将详细介绍正交矩阵的定义、性质以及与特征值和特征向量相关的解析解法。
喵叔
2024/05/24
6750
奇异值分解(SVD)
奇异值分解(Singular Value Decomposition,简称SVD)是在机器学习领域广泛应用的算法,它不光可以用于降维算法中的特征分解,还可以用于推荐系统,以及自然语言处理等领域。是很多机器学习算法的基石。
AngelNH
2020/07/15
9440
奇异值分解(SVD)
线性代数整理(三)行列式特征值和特征向量
比方说在二维平面中,这里有三组二维向量,每组都有两个向量,那么每组向量的面积就可以表示它们的不同。当然这里说面积是针对二维平面来说的,在三维空间中,就是体积;在更高维度中,可能就是一个体,但这个体比较抽象
算法之名
2021/03/04
2.7K0
相关推荐
特征值和特征向量
更多 >
领券
💥开发者 MCP广场重磅上线!
精选全网热门MCP server,让你的AI更好用 🚀
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档