AdaBoost算法原理可以概括为:
1.先初始化数据训练弱模型 ->> 得到第一个弱模型
2. 通过初始化的权重去计算误差
3. 根据这个误差去调整弱模型的权重
4. 更新训练集数据集权值的分布
其中,每次迭代都会训练一个弱模型,第一次迭代之后,每个样本得到了新的权值分布。我不理解的是这个权值分布怎么参与进后续模型的训练?(或者说样本权重怎么使用)
假设以决策树模型作为基础模型,并给定需要假设的每个参数,能否举个例子详细叙述一下,从训练第一个分类器开始,往后每一步都是怎么做的?
AdaBoost算法原理可以概括为:
1.先初始化数据训练弱模型 ->> 得到第一个弱模型
2. 通过初始化的权重去计算误差
3. 根据这个误差去调整弱模型的权重
4. 更新训练集数据集权值的分布
其中,每次迭代都会训练一个弱模型,第一次迭代之后,每个样本得到了新的权值分布。我不理解的是这个权值分布怎么参与进后续模型的训练?(或者说样本权重怎么使用)
假设以决策树模型作为基础模型,并给定需要假设的每个参数,能否举个例子详细叙述一下,从训练第一个分类器开始,往后每一步都是怎么做的?
权值的调整,你可以直接对原始数据比例大小进行调整,将样本整个调大或者调小
这里有我写的一个例子你可以看一下
https://blog.csdn.net/qq_18560985/article/details/115055058