新手,初学adaboost算法,从网上找了一些资料和文献,有些地方没有看懂,请各位老师们指点。
adaboost算法的基本原理是将在不同的样本分布下训练“弱分类器”,将多个“弱分类器”集成为一个“强分类器”,其关键是在每一轮的样本权重更新中,提高上一轮识别错误的样本权重,降低上一轮识别正确的样本权重。
我想问的是,在我找的资料和文献中,给出的算法流程都没有说明怎样根据样本分布进行下一轮的训练,样本的权重是体现在什么地方?
请各位老师赐教,谢谢
新手,初学adaboost算法,从网上找了一些资料和文献,有些地方没有看懂,请各位老师们指点。
adaboost算法的基本原理是将在不同的样本分布下训练“弱分类器”,将多个“弱分类器”集成为一个“强分类器”,其关键是在每一轮的样本权重更新中,提高上一轮识别错误的样本权重,降低上一轮识别正确的样本权重。
我想问的是,在我找的资料和文献中,给出的算法流程都没有说明怎样根据样本分布进行下一轮的训练,样本的权重是体现在什么地方?
请各位老师赐教,谢谢
弱分类器算法,原文中并未指定。样本的权重最初是一样的,然后根据每次迭带,正确分类的样本权重减小,未正确分类的样本权重加大。体现在权重的变化上,即D(t+1)与D(t)的变化上,原文看下。Yoav Freund,Experiments with a New Boosting Algorithm