两者区别:
生成方法可以还原出联合概率分布,而判别方法不能;生成方法的学习收敛速度更快....第八章 提升方法
1.概念:对提升方法来说,有两个问题需要回答
在每一轮如何改变训练数据的权值或概率分布 - AdaBoost提高那些前一轮弱分类器错误分类样本的权值,而降低那些被正确分类样本的权值
如何将弱分类器组合成一个强分类器...- AdaBoost采取加权多数表决的方法,具体地,加大分类误差率较小的弱分类器的权值,使其表决中起较大的作用,减小分类误差率较大的弱分类器的权值,使其再表决中其较小的作用.
2.AdaBoost
学习样本权重...$D_m$,学习分类器权重$\alpha_m$
$D_m={w_{m1},w_{m2},…,w_{mN}}$,样本权重和上一次的分类器分类结果有关
$\alpha_m=\frac{1}{2}log\frac...{1-e_m}{e_m}$,$e_m$为分类误差错误率(算错误率时乘上样本权重)
3.提升树
前向分步法+拟合残差,在拟合残差时,如果损失函数是平方差函数或指数损失函数时,每一步优化很简单.如果是一般损失函数