前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >[白话解析] 深入浅出贝叶斯定理

[白话解析] 深入浅出贝叶斯定理

作者头像
罗西的思考
发布于 2020-09-07 07:46:05
发布于 2020-09-07 07:46:05
92000
代码可运行
举报
文章被收录于专栏:罗西的思考罗西的思考
运行总次数:0
代码可运行

[白话解析] 深入浅出贝叶斯定理

0x00 摘要

本文将尽量使用易懂的方式介绍一致性贝叶斯定理,并且通过具体应用场景来帮助大家深入这个概念。

0x01 IT概念

1. 贝叶斯定理

贝叶斯定理是用来解决"逆概率"问题的,即根据一些有限的过去数据来预测某个概率。比如利用有限的信息(过去天气的测量数据)来预测明天下雨的概率是多少。

其底层思想是:新观察到的样本信息将修正人们以前对事物的认知。好比是人类刚开始时候对大自然只有少的可怜的先验知识,但是随着不断观察实践获得更多的样本,结果使得人们对自然界的规律摸得越来越透彻。

2. 问题领域

  • 求解问题(A): 呼延灼想知道自己是否是公明哥哥的心腹,用A来代表"你是大哥的心腹"。
  • 已知结果(B): 大哥对你下拜。记作事件B。
  • 推理结果 P(A|B): 想通过大哥对你下拜这个事件,来判断大哥视你为心腹的概率。

3. 相关术语

  • 先验概率:指根据以往经验和分析得到的概率。它作为"由因求果"问题中的"因"出现。
  • 后验概率:指事情已经发生后,要求此事件发生的原因是由于某个因素引起的可能性的大小。后验概率是指得到"已知结果"的信息之后重新修正的概率。是"执果寻因"问题中的"因"。

先验概率是由以往的数据分析得到的概率,泛指一类事物发生的概率,根据历史资料或主观判断未经证实所确定的概率。后验概率而是在得到信息之后再重新加以修正的概率,是某个特定条件下一个具体事物发生的概率。

  • P(A): 是A的先验概率,之所以称为先验是因为它不考虑任何B方面的因素。
  • P(B): 是B的先验概率,之所以称为先验是因为它不考虑任何A方面的因素。在这里就是结果B发生的概率。
  • P(A|B): 是已知B发生之后A的条件概率,就是先有B然后才有A,也由于得自B的取值而被成为A的后验概率。
  • P(B|A): 是已知A发生之后B条件概率,就是先有A然后才有B,也由于得自A的取值而被成为B的后验概率。
  • P(B|A)/P(B): 似然函数,这是一个调整因子,即新信息B带来的调整,作用是使得先验概率更接近真实概率。

4. 对应本题

  • 先验概率 P(A): 呼延灼事先无法知道大哥是否视他为心腹,所以只能根据一般的常识(或者以往经验)来分析判断得到一个概率,这里暂定为50%(大哥有喜欢你,不喜欢你两种可能)。
  • 后验概率 P(A|B): 即在B事件"大哥下拜"发生之后,对A事件"大哥视你为心腹"概率的重新评估。

5. 思考模式

新观念等于老观念乘上调整因子(也叫做似然比)

我们先预估一个先验概率,然后加入实验结果,看看这个实验是增强了还是削弱了先验概率,由此得到更接近实时的后验概率。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
后验概率 = 先验概率 x 调整因子
后验概率是 P(A|B)
先验概率是 P(A)
调整因子是 P(B|A)/P(B)

或者用如下方式来思考:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
先验分布 + 样本信息 ==> 后验分布
​
在得到新的样本信息之前,人们对事物的认知是"先验分布"。
在得到新样本信息之后,人们对事物的认知调整为"后验分布"。
​
即原先你有旧观念 P(假设),有了新证据之后,P(假设|证据)就是你的新观念。新观念等于老观念乘上似然比。P(B|A)/P(B)在这里被称为"似然比"

或者还有这种思考方式

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
P(θ|X) = P(X|θ) P(θ) / P(X)
posterior = likehood * prior / evidence
​
posterior:P(θ|X)是 通过样本X得到参数θ的概率,也就是后验概率。
likehood:P(X|θ)是 通过参数θ得到样本X的概率,似然函数,通常就是我们的数据集的表现,即假设θ已知后我们观察到的数据应该是什么样子的。
prior:P(θ) 是参数θ的先验概率,一般是根据人的先验知识来得出的。
evidence:P(X) 是样本X发生的概率,是各种条件下发生的概率的积分。

0x02 本题如何解答

1. 通俗思考

呼延灼通过大哥对自己下拜这个事件,来判断大哥视自己为心腹的概率。

通俗的思考: 呼延灼先估计一个值(先验概率),然后根据观察的新信息不断修正(可能性函数)。也就是利用 "调整因子" 来不断修改 "先验概率")"

贝叶斯公式:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
后验概率P(A|B)  = 先验概率P(A) x 调整因子 [P(B|A)/P(B)]

对于本题,则是

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
 P(大哥看重你|大哥下拜) = P(大哥看重你) x [ P(大哥因为看重你才下拜) / P(大哥下拜) ]

如何通俗思考这个"调整因子" ? 通俗理解就是:大哥看重你 / ( 大哥看重你 + 大哥不看重你). 也就是"大哥看重你"这个事件在总体事件中的比重。 这样才可以调整。

2. 具体解题

2.1 如何求先验概率 P(A)?

通常有如下做法:

  • 每个样本所属的自然状态都是已知的(有监督学习)
  • 依靠经验
  • 用训练样本中各类出现的频率估计,比如通过极大似然估计,把频数除以总的次数就可以得到。即样本中本类出现的次数除以样本容量

这里呼延灼用常理判断,大哥看重的概率和不看重的概率都是50%, 即

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
P(A) = P(-A) = 50%
2.2 如何求P(B)?

P(B) 可以根据经验获得,但一般使用全概率公式,其意义在于:无法知道一个事物独立发生的概率,但是我们可以将其在各种条件下发生的概率进行累加获得。

即全概率公式是对复杂事件的概率求解问题转化为了在不同情况下发生的简单事件的概率的求和问题。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
P(B) = P(B|A)P(A) + P(B|-A)P(-A), 这里把A的反集记作-A

本题中对应

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
P(大哥下拜) = P(大哥因为看重你才下拜)P(大哥看重你) + P(大哥不看重你也会下拜)P(大哥不看重你)
2.3 如何求P(B|A)?

这个很难。原因包括:

  • 概率密度函数包含了一个随机变量的全部信息;
  • 样本数据可能不多;
  • 特征向量x的维度可能很大等等;

解决的办法就是,把估计完全未知的概率密度转化为估计参数。这里就将概率密度估计问题转化为参数估计问题,极大似然估计就是一种参数估计方法。

当然了,概率密度函数的选取很重要,模型正确,在样本区域无穷时,我们会得到较准确的估计值,如果模型都错了,那估计半天的参数,肯定也没啥意义了。

本题中,呼延灼根据样本数据来观察归纳推理来得到的

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
P(大哥因为看重你才下拜) = 20%  
P(大哥不看重你也会下拜) = 80%
2.4 后续推导

所以呼延灼得到了如下公式:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
P(大哥看重你|大哥下拜) 
= P(大哥看重你) x [P(大哥因为看重你才下拜) / P(大哥下拜)]
= P(大哥看重你) x [P(大哥因为看重你才下拜) / [ P(大哥因为看重你才下拜)P(大哥看重你) + P(大哥不看重你也会下拜)P(大哥不看重你) ] ]

呼延灼发现,公明哥哥对于李逵戴宗并没有纳头便拜,对于董平/关胜/卢俊义则纳头便拜。就知道大哥看重某人其实并不大会下拜,不看重但为了套路某人反而会下拜。

所以呼延灼得出如下计算过程。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
以下是呼延灼根据常理假设
p(大哥看重你)=50%
p(大哥不看重你)=50%
​
以下是呼延灼根据观察归纳推理
P(大哥因为看重你才下拜) = 20%
P(大哥不看重你也会下拜) = 80%
​
于是呼延灼最终计算如下
P(大哥看重你|大哥下拜) = 50% x (20% / (20%x50% + 80%x50%)) = 20%

所以从大哥对呼延灼下拜这个能看出来,大哥不看重呼延灼。把大哥看重呼延灼这个概率下调。

3. 结论

一句话概括贝叶斯思想,就是"观点随着事实而改变"。

如果我能掌握一个事情的全部信息,我当然能计算出一个客观概率(古典概率)。 可是生活中绝大多数决策面临的信息都是不全的,我们手中只有有限的信息。既然无法得到全面的信息,我们就在信息有限的情况下,尽可能做出一个好的预测。也就是,在主观判断的基础上,你可以先估计一个值(先验概率),然后根据观察的新信息不断修正(可能性函数)。

这就有点像破案,从结果推测缘由。你来到案发现场,收集证据(结果)。通过证据的叠加,凶手的特征逐渐清晰。最终你选择“相信”谁是凶手。

贝叶斯说,你对某个假设的“相信”程度,应该用一个概率来表示——P(假设)

0x03 参考

https://blog.csdn.net/weixin_40920228/article/details/80850489

https://cloud.tencent.com/developer/news/266248

https://blog.csdn.net/qq_28168421/article/details/83388776

https://blog.csdn.net/zengxiantao1994/article/details/72787849

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2020-01-01 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
[白话解析] 深入浅出朴素贝叶斯模型原理及应用
朴素贝叶斯模型是机器学习中经常提到的概念。但是相信很多朋友都是知其然而不知其所以然。本文将尽量使用易懂的方式介绍朴素贝叶斯模型原理,并且通过具体应用场景和源码来帮助大家深入理解这个概念。
罗西的思考
2020/09/07
9150
怎样用非数学语言讲解贝叶斯定理(Bayes's theorem)?
贝叶斯定理太有用了,不管是在投资领域,还是机器学习,或是日常生活中高手几乎都在用到它。
猴子数据分析
2020/10/27
1.2K0
估计和贝叶斯定理 Estimation Bayes Rule
高斯分布的概率密度函数(PDF):观测数据x ,均值\mu ,方差\sigma^2
esse LL
2024/08/09
1480
[白话解析] 深入浅出 极大似然估计 & 极大后验概率估计
本文在少用数学公式的情况下,尽量仅依靠感性直觉的思考来讲解 极大似然估计 & 极大后验概率估计,并且从名著中找了几个实例给大家看看这两种估计如何应用 & 其非常有趣的特点。
罗西的思考
2020/09/07
1.9K0
深入浅出经典贝叶斯统计
当结果是一个不确定但可重复的过程的结果时,概率总是可以通过简单地观察多次过程的重复并计算每个事件发生的频率来衡量。这些频率概率可以很好地陈述客观现实。如
数据STUDIO
2021/11/10
1.2K0
【机器学习】解构概率,重构世界:贝叶斯定理与智能世界的暗语
在机器学习的世界中,概率论不仅是数学的一个分支,更是理解数据分布、评估模型性能和进行决策的基石。前两篇博客中,我们分别介绍了线性代数入门和概率论入门,为大家奠定了坚实的数学基础。今天,我们将深入探讨条件概率与贝叶斯定理,这些概念在实际应用中至关重要,特别是在分类、预测和决策模型中。
半截诗
2025/01/09
1650
【机器学习】解构概率,重构世界:贝叶斯定理与智能世界的暗语
什么是贝叶斯定理?朴素贝叶斯有多“朴素”?终于有人讲明白了
导读:如果有一天,我们知道的统计规律和现实生活发生了冲突,又或者前人的经验不符合亲身经历,那么该怎么办?面对经验与现实的矛盾,我们需要一种应对方案。
IT阅读排行榜
2022/01/20
1.9K1
什么是贝叶斯定理?朴素贝叶斯有多“朴素”?终于有人讲明白了
贝叶斯估计、最大似然估计、最大后验概率估计
1. 引言 贝叶斯估计、最大似然估计(MLE)、最大后验概率估计(MAP)这几个概念在机器学习和深度学习中经常碰到,读文章的时候还感觉挺明白,但独立思考时经常会傻傻分不清楚(?),因此希望通过本文对其
Tyan
2019/05/25
1.3K0
赫尔辛基大学AI基础教程:贝叶斯定理(3.2节)
我们不会过分介绍概率微积分的细节以及它用于各种AI应用程序的方法。但我们将讨论一个非常重要的定理。
AiTechYun
2018/07/27
8330
赫尔辛基大学AI基础教程:贝叶斯定理(3.2节)
【彩票】白话贝叶斯理论及在足球比赛结果预测中的应用
贝叶斯是一名1702年出生于伦敦的英国数学家,他首先将归纳推理法用于概率论基础理论,并创立了贝叶斯统计理论,对于统计决策函数、统计推断、统计的估算等做出了贡献,对于现代概率论和数理统计都有很重要的作用。所以看到的 贝叶斯 其实都是为了纪念这位伟大的数学家的贡献,贝叶斯公式也是他提出的,所以都是根据他的名字命名。
Ai学习的老章
2019/04/10
4K0
【彩票】白话贝叶斯理论及在足球比赛结果预测中的应用
深入浅出贝叶斯模型选择
贝叶斯推理[1](Bayesian inference)是统计学中的一个重要问题,也是许多机器学习方法中经常遇到的问题。例如,用于分类的高斯混合模型或用于主题建模的潜在狄利克雷分配(Latent Dirichlet Allocation,简称LDA)模型等概率图模型都需要在拟合数据时解决这一问题。
数据STUDIO
2021/11/10
1.7K0
《从贝叶斯定理到朴素贝叶斯算法:解锁概率推理的奥秘》
在机器学习的奇妙世界里,贝叶斯定理和朴素贝叶斯算法是两颗璀璨的明珠,它们为我们理解和处理数据中的不确定性提供了强大的工具。今天,让我们一起深入探索贝叶斯定理与朴素贝叶斯算法之间千丝万缕的联系。
程序员阿伟
2025/02/02
960
《从贝叶斯定理到朴素贝叶斯算法:解锁概率推理的奥秘》
【陆勤阅读】贝叶斯、概率分布与机器学习
一. 简单的说贝叶斯定理: 贝叶斯定理用数学的方法来解释生活中大家都知道的常识 形式最简单的定理往往是最好的定理,比如说中心极限定理,这样的定理往往会成为某一个领域的理论基础。机器学习的各种算法中使用的方法,最常见的就是贝叶斯定理。 贝叶斯定理的发现过程我没有找到相应的资料,不过我相信托马斯.贝叶斯(1702-1761)是通过生活中的一些小问题去发现这个对后世影响深远的定理的,而且我相信贝叶斯发现这个定理的时候,还不知道它居然有这么大的威力呢。下面我用一个小例子来推出贝叶斯定理: 已知:有N个苹果,和M个梨
陆勤_数据人网
2018/02/26
7320
【陆勤阅读】贝叶斯、概率分布与机器学习
数据挖掘算法之深入朴素贝叶斯分类
写在前面的话:   我现在大四,毕业设计是做一个基于大数据的用户画像研究分析。所以开始学习数据挖掘的相关技术。这是我学习的一个新技术领域,学习难度比我以往学过的所有技术都难。虽然现在在一家公司实习,但是工作还是挺忙的,经常要加班,无论工作多忙,还是决定要写一个专栏,这个专栏就写一些数据挖掘算法、数据结构、算法设计和分析的相关文章。通过写博文来督促自己不断学习。以前对于数学没有多大的兴趣爱好,从小到大,学数学也是为了考试能考个好的成绩,学过的很多数学知识,并没有深刻的感受到它的用途,不用也就慢慢遗忘,但自从我
汤高
2018/03/28
9670
数据挖掘算法之深入朴素贝叶斯分类
程序员的数学--用贝叶斯定理来推断一个案子
因为可能性是个主观感受,没有办法量化,所以在数学中一般会问年不群是正人君子的概率有多高?
Frank909
2020/08/19
3820
三人成虎,概率却不足十分之五?
你打算去西雅图旅游,但不确定是否会下雨。你打电话给三个在西雅图居住但彼此不认识的朋友询问。你的每个朋友都有2/3的可能告诉你真实情况,也有1/3的可能他们会搞砸。询问后所有的朋友都告诉你会下雨。
生信宝典
2019/05/09
1.7K0
三人成虎,概率却不足十分之五?
机器学习 | 朴素贝叶斯理论
朴素贝叶斯法是一种直接衡量标签和特征之间的概率关系的有监督学习算法,是一种专注分类的算法。
数据STUDIO
2021/06/24
5550
统计学基础回顾
1. 统计学基础回顾 ---- 1.1 先验概率与后验概率 先验概率: 根据以往经验和分析得到的概率,如全概率公式,它往往作为”由因求果” 问题中的”因”出现。 后验概率: 依据得到”结果”信息所计算出的最有可能是那种事件发生,如贝叶斯公式 中的,是”执果寻因”问题中的”因”。后验概率可以根据通过贝叶斯公式,用先验概率和 似然函数计算出来。 贝叶斯定理: 假设B1,B2,...,Bn互斥且构成一个完全事件,已知它们的概率P(Bi),i=1,2,...,n, 现观察到某事件A与B1
iOSDevLog
2018/06/13
4870
机器学习数学笔记|概率论基础常见概型分布期望与方差
课程传送门: http://www.julyedu.com/video/play/38
演化计算与人工智能
2020/08/14
9890
机器学习数学笔记|概率论基础常见概型分布期望与方差
太赞了!机器学习基础核心算法:贝叶斯分类!(附西瓜书案例及代码实现)
寄语:首先,简单介绍了生成模型和判别模型,对条件概率、先验概率和后验概率进行了总结;其次,对朴素贝叶斯的原理及公式推导做了详细解读;再次,对三种可能遇到的问题进行了解析,给出了合理的解决办法;最后,对朴素贝叶斯的sklearn参数和代码进行了详解。
Datawhale
2020/05/16
2.4K0
推荐阅读
相关推荐
[白话解析] 深入浅出朴素贝叶斯模型原理及应用
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验