前往小程序,Get更优阅读体验!
立即前往
发布
社区首页 >专栏 >【深度学习】概率图模型(一)概率图模型理论简介

【深度学习】概率图模型(一)概率图模型理论简介

作者头像
Qomolangma
发布2024-07-29 21:34:14
发布2024-07-29 21:34:14
2250
举报
文章被收录于专栏:深度学习深度学习

概率图模型(Probabilistic Graphical Model,PGM)是一种用图结构来表示和推断多元随机变量之间条件独立性的概率模型。图模型提供了一种直观且有效的方式来描述高维空间中的概率分布,通过图结构表示随机变量之间的关系,使得模型的参数量得以减少。

一、概率图模型

  • 在概率图模型中
    • 随机变量通常用斜体的大写字母表示,取值用斜体的小写字母表示。
    • 随机向量用粗斜体的大写字母表示,其取值用粗斜体的小写字母表示。

  考虑一个由

K

个离散随机变量

X_1, X_2, \ldots, X_K

组成的随机向量

\mathbf{X} = [X_1, X_2, \ldots, X_K]^T

,其中每个变量都有

M

个可能的取值,其联合概率在高维空间中的分布很难直接建模。在没有任何独立性假设的情况下,我们需要为每一种组合分配一个概率值。每个变量有

M

个可能的取值,因此有

M^K

种可能的组合。由于概率的总和必须等于1,所以最后一个概率值可以通过对其他概率值进行补充得到,因此,我们需要

M^K - 1

个参数。   当𝑀 = 2且𝐾 = 100时,参数量(约为

10^{30}

)将远远超出目前计算机的存储能力。为了有效减少参数量,可以使用独立性假设。一个𝐾维随机向量𝑿的联合概率可以分解为𝐾个条件概率的乘积。如果某些变量之间存在条件独立性,参数量就可以显著减少。   对于一个

K

维随机向量

\mathbf{X}

,其联合概率可以根据条件独立性假设分解为条件概率的乘积:

p(\mathbf{x}) \triangleq P(\mathbf{X} = \mathbf{x}) = \prod_{k=1}^{K} p(x_k | \mathbf{x}_1, \ldots, x_{k-1})

其中,

\mathbf{x} = [x_1, x_2, \ldots, x_K]

表示变量

\mathbf{X}

的取值。通过这种分解,我们可以将原本需要

M^K

个参数的问题,降低到对每个变量的条件概率的参数的数量之和。如果某些变量之间存在条件独立关系,那么相应的条件概率的参数量就可以大幅减少。   概率图模型中,贝叶斯网络和马尔可夫网络都利用了这种条件独立性的结构,以更紧凑的方式表示联合概率分布,从而提高了模型的可解释性和计算效率。

1. 联合概率表

  假设有四个二值变量

X_1, X_2, X_3 , X_4

  • 在不知道这几个变量依赖关系的情况下,可以用一个联合概率表来记录每一种取值的概率,需要
M^K − 1 = 2^4 − 1 = 15

个参数。

  • 联合概率表包含了每个可能的组合及其对应的概率。在这个情况下,由于每个二值变量有两个可能的取值,总共有
2^4 = 16

种可能的组合。下面是一个简化的例子,其中假设概率分布是均匀的,即

p(\mathbf{x}) = \frac{1}{16}

\begin{array}{cccc|c} X_1 & X_2 & X_3 & X_4 & p(\mathbf{x}) \\ \hline 0 & 0 & 0 & 0 & \frac{1}{16} \\ 0 & 0 & 0 & 1 & \frac{1}{16} \\ 0 & 0 & 1 & 0 & \frac{1}{16} \\ 0 & 0 & 1 & 1 & \frac{1}{16} \\ 0 & 1 & 0 & 0 & \frac{1}{16} \\ 0 & 1 & 0 & 1 & \frac{1}{16} \\ 0 & 1 & 1 & 0 & \frac{1}{16} \\ 0 & 1 & 1 & 1 & \frac{1}{16} \\ 1 & 0 & 0 & 0 & \frac{1}{16} \\ 1 & 0 & 0 & 1 & \frac{1}{16} \\ 1 & 0 & 1 & 0 & \frac{1}{16} \\ 1 & 0 & 1 & 1 & \frac{1}{16} \\ 1 & 1 & 0 & 0 & \frac{1}{16} \\ 1 & 1 & 0 & 1 & \frac{1}{16} \\ 1 & 1 & 1 & 0 & \frac{1}{16} \\ 1 & 1 & 1 & 1 & \frac{1}{16} \\ \end{array}

2. 条件独立性假设

  • 联合概率分布:
p(x_1, x_2, x_3, x_4) = p(x_1) \cdot p(x_2 | x_1) \cdot p(x_3 | x_1, x_2) \cdot p(x_4 | x_1, x_2, x_3)
  • 通过引入条件独立性假设,可以减少参数量:
    • 例如,在已知
    X_1

    时,

    X_2

    X_3

    独立,即有:

    p(x_2|x_1, x_3) = p(x_2|x_1)
    p(x_3|x_1, x_2) = p(x_3|x_1)
    • 在已知
    X_2

    X_3

    时,

    X_4

    也和

    X_1

    独立,即有:

    p(x_4|x_1, x_2, x_3) = p(x_4|x_2, x_3)
    • 这样可以将联合概率分解为四个局部条件概率的乘积,从而减少参数量。
    p(\mathbf{x}) = p(x_1) \cdot p(x_2 | x_1) \cdot p(x_3 | x_1) \cdot p(x_4 | x_2, x_3)
    • 总的独立参数数量为
    1 + 2 + 2 + 4 = 9

3. 三个基本问题

  1. 表示问题:这个问题涉及如何选择和设计图结构,以有效地表示变量之间的依赖关系。在贝叶斯网络中,这通常涉及到选择合适的有向边,而在马尔可夫网络中,涉及到选择无向边。图结构的选择直接影响了概率模型的表达能力和推断效率。
  2. 学习问题:学习问题可以进一步分为两个部分:图结构的学习和参数的学习。在图结构的学习中,目标是从数据中推断出最合适的图结构,描述变量之间的依赖关系。在参数的学习中,已知图结构的情况下,目标是估计模型中的参数,使得模型与观测数据的拟合最好。
  3. 推断问题:推断问题涉及在给定部分变量的观测值时,计算其他变量的条件概率分布。这可以通过贝叶斯推断、变分推断等方法来解决。推断在概率图模型中是一个关键的任务,因为它允许我们根据观测到的证据来推断未观测到的变量的状态,从而进行概率推理。

二、模型表示

  概率图模型主要分为两类:有向图模型和无向图模型。

1. 有向图模型(贝叶斯网络)

  有向图模型使用有向非循环图(DAG)来描述变量之间的关系。在有向图中,节点表示随机变量,有向边表示因果关系。如果图中有一条从节点 (A) 到节点 (B) 的有向边,表示 (A) 是 (B) 的一个直接因果。在这种模型中,边的方向表示了变量之间的因果关系,而节点之间的有向路径可以表示条件独立性关系。例如,对于三个变量

X_1, X_2, X_3

,有向图可能是

X_1 \rightarrow X_2 \rightarrow X_3

,表示

X_1

影响

X_2

X_2

影响

X_3

2. 无向图模型(马尔可夫网络)

  无向图模型使用无向图来描述变量之间的关系。在无向图中,节点表示随机变量,无向边表示变量之间有概率依赖关系,但不指明因果关系。每一条无向边表示两个变量之间存在概率依赖关系。 例如,对于三个变量

X_1, X_2, X_3

,无向图可能是

X_1 \sim X_2 \sim X_3

,表示

X_1

X_2

之间、

X_2

X_3

之间都存在概率依赖。

三、学习

  图模型的学习可以分为两部分:一是网络结构学习,即寻找最优的网络结构;二是网络参数估计,即已知网络结构,估计每个条件概率分布的参数.网络结构学习比较困难,一般是由领域专家来构建.图模型的参数估计问题又分为不包含隐变量时的参数估计问题和包含隐变量时的参数估计问题.

持续更新ing……

四、推断

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2024-01-30,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 📷
  • 一、概率图模型
    • 1. 联合概率表
    • 2. 条件独立性假设
    • 3. 三个基本问题
  • 二、模型表示
    • 1. 有向图模型(贝叶斯网络)
    • 2. 无向图模型(马尔可夫网络)
  • 三、学习
  • 四、推断
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档