Loading [MathJax]/jax/input/TeX/jax.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >马氏距离 (马哈拉诺比斯距离) (Mahalanobis distance)

马氏距离 (马哈拉诺比斯距离) (Mahalanobis distance)

作者头像
为为为什么
发布于 2022-08-05 05:27:09
发布于 2022-08-05 05:27:09
2.2K0
举报
文章被收录于专栏:又见苍岚又见苍岚

马氏距离(Mahalanobis distance)是由印度统计学家马哈拉诺比斯(P. C. Mahalanobis)提出的,表示点与一个分布之间的距离。它是一种有效的计算两个未知样本集的相似度的方法。与欧氏距离不同的是,它考虑到各种特性之间的联系,本文介绍马氏距离相关内容。

欧氏距离的缺点

距离度量在各个学科中有着广泛用途,当数据表示为向量x=(x1,x2,,xn)Ty=(y1,y2,,yn)T时,最直观的距离度量就是欧式距离了:

但是这种度量方式没有考虑到各个维度之间的差异和相关等因素,不同的向量度量距离时权重都相同,这可能会对结果可信度产生干扰。

马氏距离

度量样本距离某个分布的距离,先将样本与分布标准化到多维标准正态分布后度量欧式距离

思想
  • 将变量按照主成分进行旋转,消除维度间的相关性
  • 对向量和分布进行标准化,让各个维度同为标准正态分布
推导
  • 分布由nm维向量刻画,即共n条数据,每条数据由一个m维向量表示:

  • X的均值为μX
  • X的协方差矩阵为:
X=1n(XμX)(XμX)T
  • 为消除维度间的相关性,通过一个m×m的矩阵QTX进行坐标表换,将数据映射到新的坐标系下,用Y表示:
Y=QTX

此时我们期望在QT的作用下,Y 的向量表示中,不同维度之间是相互独立的,此时Y 的协方差矩阵应该是一个对角矩阵(除对角线元素外,其余元素均为0)。

  • Y 的均值:uY=QTuX
  • Y 的协方差矩阵:

  • 从这里可以发现,当 QΣX的特征向量组成的矩阵时,ΣY 一定是对角矩阵,且值为每个特征向量对应的特征值。由于ΣX是对称矩阵,因此肯定可以通过特征分解得到 Q ,且 Q 是正交矩阵。
  • ΣY的对角线元素含义为Y中每个向量的方差,因此均为非负值,从这个角度可以说明协方差矩阵的特征值为非负值。
  • 而且事实上协方差矩阵本身就是半正定的,特征值均非负
  • 不相关与独立的问题:

接下来我们对向量进行标准化

  • 当我们减去均值后,向量已经变成了0均值的向量,距离标准化仅差将方差变为1
  • 在经历了Y=QTX变换后,Y的协方差矩阵已经成为了对角阵,对角线元素为Y中各个维度数据的方差,那么我们仅需让Y中各个维度数据除以该维度数据的标准差即可。
  • 我们将去相关化、0均值化、标准化过后的数据记为Z

  • 而马氏距离就是度量纠正过后的向量Z到分布中心(原点)的欧式距离:

参考资料

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2021年3月2日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
正定,半正定矩阵
本文介绍正定矩阵和半正定矩阵。 定义 正定和半正定这两个词的英文分别是positive definite和positive semi-definite,其中,definite是一个形容词,表示“明确的、确定的”等意思。 正定 给定一个大小为n \times n 的实方阵A ,若对于任意长度为n的非零向量x ,有x^TAx>0A是一个正定矩阵。 此时,若A为对称方阵,则称A为对称正定矩阵。 半正定 给定一个大小为n \times n 的实方阵A ,若对于任意长度为n的非零向量x ,有x^TAx
为为为什么
2022/08/05
1.6K0
正定,半正定矩阵
概率论基础 - 11 - 高斯分布 / 正态分布
本文记录高斯分布。 高斯分布 / 正态分布 正态分布是很多应用中的合理选择。如果某个随机变量取值范围是实数,且对它的概率分布一无所知,通常会假设它服从正态分布。有两个原因支持这一选择: 建模的任务的真实分布通常都确实接近正态分布。 中心极限定理表明,多个独立随机变量的和近似正态分布。 在具有相同方差的所有可能的概率分布中,正态分布的熵最大(即不确定性最大)。 一维正态分布 正态分布的概率密度函数为: p(x)=\frac{1}{\sqrt{2 \pi} \sigma} e{-(x-\mu){2}
为为为什么
2022/08/05
1.6K0
概率论基础 - 11 - 高斯分布 / 正态分布
详解马氏距离中的协方差矩阵计算(超详细)
2.样本方差 方差(Variance)是度量一组数据的离散(波动)程度。方差是各个样本与样本均值的差的平方和的均值,分母除以n-1是为了满足无偏估计:
全栈程序员站长
2022/09/13
3.4K0
详解马氏距离中的协方差矩阵计算(超详细)
【译文】30分钟让你分清几种距离
做数据挖掘时,我们经常会用到聚类分析,聚类分析的原理简单的说就是:基于样本点之间的距离大小来给样本点分类,我们把距离当做是衡量样本的相似性的大小,可能因此我们经常听到各种距离,今天我们就来一起看看集中
小莹莹
2018/04/25
1.1K0
【译文】30分钟让你分清几种距离
深度学习-数学基础
目前主要有两种度量模型深度的方式。第一种方式是基于评估架构所需执行的顺序指令的数目。假设我们将模型表示为给定输入后,计算对应输出的流程图,则可以将这张流程图中的最长路径视为模型的深度。另一种是在深度概率模型中使用的方法,它不是将计算图的深度视为模型深度,而是将描述概念彼此如何关联的图的深度视为模型深度。在这种情况下,计算每个概念表示的计算流程图的深度可能比概念本身的图更深。这是因为系统对较简单概念的理解在给出更复杂概念的信息后可以进一步精细化
范中豪
2019/09/10
8580
深度学习-数学基础
机器学习|主成分分析(PCA)
在我们机器学习所训练的数据中,通常会存在着很多的特征,这也就意味着我们所要处理的数据的维度是很大的,由于维度大的数据处理起来非常困难,各种各样的降维算法也就随之产生了。
数据山谷
2020/07/21
1.3K0
机器学习|主成分分析(PCA)
PCA综合指南
机器学习中最受追捧且同样令人困惑的方法之一是主成分分析(PCA)。无论我们在不应对PCA复杂性的情况下建立模型的意愿如何,我们都无法长期远离它。PCA的优点在于其实用性。
致Great
2021/01/05
1.2K0
PCA综合指南
图解机器学习 | 降维算法详解
教程地址:http://www.showmeai.tech/tutorials/34
ShowMeAI
2022/03/11
1.3K0
图解机器学习 | 降维算法详解
计算向量间相似度的常用方法
计算化学中有时会要求我们计算两个向量的相似度,如做聚类分析时需要计算两个向量的距离,用分子指纹来判断两个化合物的相似程度,用夹角余弦判断两个描述符的相似程度等。计算向量间相似度的方法有很多种,本文将简单介绍一些常用的方法。这些方法相关的代码已经提交到github仓库
用户7592569
2020/07/27
33.5K0
计算向量间相似度的常用方法
统计学习方法 十到十六章笔记
隐马尔可夫模型包含观测,状态和相应的转移,具体的记号不在给出。只给出其性质:其中i是状态而o是观测:
Sarlren
2023/03/16
1.1K0
统计学习方法 十到十六章笔记
教程 | 从特征分解到协方差矩阵:详细剖析和实现PCA算法
选自deeplearning4j 机器之心编译 参与:蒋思源 本文先简要明了地介绍了特征向量和其与矩阵的关系,然后再以其为基础解释协方差矩阵和主成分分析法的基本概念,最后我们结合协方差矩阵和主成分分析法实现数据降维。本文不仅仅是从理论上阐述各种重要概念,同时最后还一步步使用 Python 实现数据降维。 首先本文的特征向量是数学概念上的特征向量,并不是指由输入特征值所组成的向量。数学上,线性变换的特征向量是一个非简并的向量,其方向在该变换下不变。该向量在此变换下缩放的比例称为特征值。一个线性变换通常可以由其
机器之心
2018/05/09
4.8K0
教程 | 从特征分解到协方差矩阵:详细剖析和实现PCA算法
全面归纳距离和相似度方法(7种)
距离(distance,差异程度)、相似度(similarity,相似程度)方法可以看作是以某种的距离函数计算元素间的距离,这些方法作为机器学习的基础概念,广泛应用于如:Kmeans聚类、协同过滤推荐算法、相似度算法、MSE损失函数、正则化范数等等。本文对常用的距离计算方法进行归纳以及解析,分为以下几类展开:
算法进阶
2022/06/02
9780
全面归纳距离和相似度方法(7种)
CIKM'21「品趣」序列推荐DT4SR:将序列建模为不确定性分布
本文主要针对序列推荐,在序列推荐中,用户的偏好的动态变化的,并且序列中的商品转换模式是不断波动的并且具有一定的随机性在里面,因此在序列表征中存在一些不确定性。作者对基于Transformer的序列推荐方法进行改进,提出了基于分布的Transformer,DT4SR。
秋枫学习笔记
2022/09/19
4510
机器学习中“距离与相似度”计算汇总
涵盖了常用到的距离与相似度计算方式,其中包括欧几里得距离、标准化欧几里得距离、曼哈顿距离、汉明距离、切比雪夫距离、马氏距离、兰氏距离、闵科夫斯基距离、编辑距离、余弦相似度、杰卡德相似度、Dice系数。
Coggle数据科学
2020/12/16
3.4K0
机器学习中“距离与相似度”计算汇总
一看就懂的K近邻算法(KNN),K-D树,并实现手写数字识别!
何谓K近邻算法,即K-Nearest Neighbor algorithm,简称KNN算法,单从名字来猜想,可以简单粗暴的认为是:K个最近的邻居,当K=1时,算法便成了最近邻算法,即寻找最近的那个邻居。
mantch
2019/08/02
1.4K0
一看就懂的K近邻算法(KNN),K-D树,并实现手写数字识别!
主成分分析(Principal Component Analysis,PCA)
)个主成分(线性无关变量)来代替m个原有变量(线性相关变量),使问题得以简化,并能保留原有变量的大部分信息(原有变量的方差)。
Michael阿明
2020/07/13
9350
主成分分析(Principal Component Analysis,PCA)
在机器学习中用到了各式各样的距离
作者:shiwei408 来源:http://blog.csdn.net/shiwei408/article/details/7602324 本文目录: 1.欧氏距离 2.曼哈顿距离 3. 切比雪夫距离 4. 闵可夫斯基距离 5.标准化欧氏距离 6.马氏距离 7.夹角余弦 8.汉明距离 9.杰卡德距离& 杰卡德相似系数 10.相关系数& 相关距离 11.信息熵 1. 欧氏距离(EuclideanDistance) 欧氏距离是最易于理解的一种距离计算方法,源自欧氏空间中两点间的距离公式。 (1)
智能算法
2018/04/02
1.1K0
在机器学习中用到了各式各样的距离
皮尔森类似度(Pearson Similiarity)计算举例与数学特性和存在问题
皮尔森相关系数(Pearson correlation coefficient)也叫皮尔森积差相关系数(Pearson product-moment correlation coefficient),是用来反应两个变量相似程度的统计量。或者说可以用来计算两个向量的相似度(在基于向量空间模型的文本分类、用户喜好推荐系统中都有应用)。 皮尔森相关系数计算公式如下: ρX,Y=cov(X,Y)σXσY=E((X−μX)(Y−μY))σXσY=E(XY)−E(X)E(Y)E(X2)−E2(X)√E(Y2)−E2(Y)√ρX,Y=cov(X,Y)σXσY=E((X−μX)(Y−μY))σXσY=E(XY)−E(X)E(Y)E(X2)−E2(X)E(Y2)−E2(Y)\rho_{X,Y}=\frac{cov(X,Y)}{\sigma_{X}\sigma_{Y}}=\frac{E((X-\mu_X)(Y-\mu_Y))}{\sigma_{X}\sigma_{Y}}=\frac{E(XY)-E(X)E(Y)}{\sqrt{E(X^2)-E^2(X)}\sqrt{E(Y^2)-E^2(Y)}} 分子是协方差,分母是两个变量标准差的乘积。显然要求X和Y的标准差都不能为0。
学到老
2019/01/25
8.2K0
皮尔森类似度(Pearson Similiarity)计算举例与数学特性和存在问题
R语言:计算各种距离
=================================================================================================================================================
努力在北京混出人样
2019/02/18
7.6K0
ML中相似性度量和距离的计算&Python实现
在机器学习中,经常需要使用距离和相似性计算的公式,在做分类时,常常需要计算不同样本之间的相似性度量(Similarity Measurement),计算这个度量,我们通常采用的方法是计算样本之间的“距离(Distance)”。比如利用k-means进行聚类时,判断个体所属的类别,就需要使用距离计算公式得到样本距离簇心的距离,利用kNN进行分类时,也是计算个体与已知类别之间的相似性,从而判断个体的所属类别。
YingJoy_
2018/03/02
6.8K0
ML中相似性度量和距离的计算&Python实现
推荐阅读
相关推荐
正定,半正定矩阵
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档