得到
?
,即第m棵树的参数。
当采用平方误差损失函数时,
?
,其损失变为
?
这里
?
是当前模型拟合数据的残差,所说义,对回归问题提升树算法来说,只需简单地拟合当前模型的残差。...(2)对m=1,2,...,M
(a)计算残差
?
(b)拟合残差
?
学习一个回归树,得到
?
(c)更新
?
(3)得到回归问题提升树
?...(2)对m=1,2,...,M
(a)对i=1,2,...,N,计算
?
(b)对
?
拟合一个回归树,得到第m棵树的叶结点区域
?
(c)对j=1,2,...,J,计算
?
...分枝时穷举每一个feature的每个阈值找最好的分割点,但衡量最好的标准不再是GINI系数,而是最小化均方差--即(每个人的年龄-预测年龄)^2 的总和 / N,或者说是每个人的预测误差平方和 除以 N...按照特征列方式存储能优化寻找最佳的分割点,但是当以行计算梯度数据时会导致内存的不连续访问,严重时会导致cache miss,降低算法效率。