许多人经常难以理解Bagging和Boosting的核心要点。
本文通过动画展示了这两种技术的内部工作原理:
简而言之,集成方法将多个模型结合在一起以构建一个更强大的模型。
它们基本上是建立在这样一个思想之上的,即通过汇总多个模型的预测结果,可以减轻各个单独模型的缺陷。
其思想如下图所示:
集成方法主要使用两种不同的策略构建:
装袋(Bagging)
提升(Boosting)
Bagging通过以下步骤实现:
用有放回地抽样数据创建不同的数据子集(这被称为自助法,bootstrapping)。
针对每个子集训练一个模型。
聚合所有模型的预测结果以获取最终的预测。
一些常用的利用装袋策略的模型包括:
Random Forests
Extra Trees
Boosting通过一下步骤实现:
Boosting是一个迭代训练过程。
后续模型更加关注前一个模型中被错误分类的样本。
最终的预测是所有模型预测的加权组合。
一些常用的利用提升策略的模型包括:
XGBoost
AdaBoost等
总的来说,集成模型相较于单个模型显著提升了预测性能。
它们通常更加健壮,对未见数据泛化能力更好,并且更不容易过拟合。
关注公众号 [小Z的科研日常] ,查看最新技术分享。
更多【算法-【机器学习】集成算法Bagging和Boosting动画指南】相关视频教程:www.yxfzedu.com