大家好,又见面了,我是你们的朋友全栈君。
知识推理是知识图谱中很重要的一部分,主要用于推理暗含的知识(丰富知识图谱),检查知识库的不一致(知识清洗)
从一般到特殊的过程.从一般性的前提出发,通过推导,得到具体描述或个别结论(三段论),结论已经蕴含一般性知识中,只是通过演绎推理揭示出来,不能得到新知识.
从特殊到一般的推理过程.从一类事物的大量特殊事例出发,去推出该类事物的一般性结论(数学归纳法),推出的结论没有包含在已有内容中,增加了新知识.
归纳逻辑程序设计(Inductive Logic Programming, ILP)使用一阶谓词逻辑来进行知识表示,通过修改和扩充逻辑表达式来完成对数据的归纳
利用序贯覆盖实现规则学习
Algorithm
1. 从空规则开始,将目标谓词作为规则头
2. 逐一将其他谓词加入规则提进行考察,按预定标准评估规则的优劣并选取最优规则
3. 将该规则覆盖的训练样例去除,以剩下的训练样例组成训练集重复上述过程
评估准则
FOIL_GAIN=m^+∗(log2m^+m^++m^−−log2m+m++m−) F O I L _ G A I N = m ^ + ∗ ( log 2 m ^ + m ^ + + m ^ − − log 2 m + m + + m − )
FOIL\_GAIN = \hat m_+*(\log_2{{\hat m_+}\over{\hat m_++\hat m_-}}-\log_2{{m_+}\over{m_++m_-}})
其中, m^+/m^− m ^ + / m ^ − \hat m_+/\hat m_-为增加候选文字后新规则覆盖的正反例数目, m+/m− m + / m − m_+/m_-表示原规则所覆盖的曾凡丽数目.(类似于决策树的信息增益)
上述的归纳逻辑程序设计(ILP)具有以下缺点:需要目标谓词的正例和反例,同时暗含封闭世界假设(即所有未声明是正例的样本都是反例)
不完备知识库的关联规则挖掘(Association Rule Mining under Incomplete Evidence,AMIE)支持从不完备知识库中,挖掘闭式规则
AMIE依次学习预测每种关系的规则。对于每种关系,从规则体为空的规则开始,通过三种操作扩展规则体部分,保留支持度大于阈值的候选(闭式)规则。
评估准则 – 支持度:同时符合规则体和规则头的实例数目
supp(B⃗ ⇒r(x,y)):=#(x,y):∃z1,...,zm:B⃗ ∧r(x,y) s u p p ( B → ⇒ r ( x , y ) ) := # ( x , y ) : ∃ z 1 , . . . , z m : B → ∧ r ( x , y )
supp(\vec B \Rightarrow r(x,y)):= \#(x,y):\exists z_1,...,z_m:\vec B \land r(x,y) – 置信度:支持度除以仅符合规则体的实例数目
conf(B⃗ ⇒r(x,y)):=supp(B⃗ ⇒r(x,y))#(x,y):∃z1,...,zm:B⃗ c o n f ( B → ⇒ r ( x , y ) ) := s u p p ( B → ⇒ r ( x , y ) ) # ( x , y ) : ∃ z 1 , . . . , z m : B →
conf(\vec B \Rightarrow r(x,y)):={{supp(\vec B \Rightarrow r(x,y))}\over{\#(x,y):\exists z_1,...,z_m:\vec B}} – PCA置信度
pcaconf(B⃗ ⇒r(x,y)):=supp(B⃗ ⇒r(x,y))#(x,y):∃z1,...,zm:B⃗ ∧r(x,y‘) p c a c o n f ( B → ⇒ r ( x , y ) ) := s u p p ( B → ⇒ r ( x , y ) ) # ( x , y ) : ∃ z 1 , . . . , z m : B → ∧ r ( x , y ‘ )
pcaconf(\vec B \Rightarrow r(x,y)):={{supp(\vec B \Rightarrow r(x,y))}\over{\#(x,y):\exists z_1,...,z_m:\vec B\land r(x,y^`)}}
路径排序算法(Path Ranking Algorithm),PRA),以两个实体间的路径作为特征,来判断它们之间可能存在的关系
Algorithm
1. 特征抽取(生成并选择路径特征集合)
方法:随机游走,广度优先搜索,深度优先搜索
2. 特征计算(计算每个训练样例的特征值)
方法:随机游走概率,布尔值(出现/不出现),出现频次/概率
3. 分类器训练(根据训练样例,为每个目标关系训练一个分类器)
方法:单任务学习(为每个关系单独训练二分类器);多任务学习(不同关系联合学习)
原始方法:直接通过一阶谓词逻辑进行推理
将概率图模型与一阶谓词逻辑结合,核心思想是为规则绑定权重(规则概率化),软化一阶谓词逻辑的硬约束.
形式化定义
马尔科夫逻辑网的优势:
马尔科夫逻辑网的进一步延伸,最大优点是允许原子事实(节点)的真值可以在连续的[0,1]区间取任意值(事实概率化),而不是像马尔科夫逻辑网取{0,1}离散值.
见《知识图谱(一)——知识表示》,通过将符号表示映射到向量空间进行数值表示,能够减少维数灾难问题,同时能够捕捉实体和关系之间的隐式关联,重点是可以直接计算且计算速度快.(Trans E,Trans R,Trans H)
通过张量分解,将知识图谱表示成张量的形式,主要应用于链接预测(判断两个实体之间是否存在某种特定关系),实体分类(判断实体所属语义类别),实体解析(指代消解)
TRESCAL模型(解决输入张量高度稀疏所带来的过拟合问题)
资料来源: [1]. 《第13章 知识图谱与知识推理》王泉 [2]. 《第10章 知识推理》王泉 [3]. 《知识图谱中推理技 术进展及应用》漆桂林
本作品采用知识共享署名-非商业性使用-相同方式共享 3.0 中国大陆许可协议进行许可。
发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/137865.html原文链接:https://javaforall.cn