星独 2021-03-24 12:21 采纳率: 0%
浏览 55

支持向量回归问题。 在支持向量回归中,最后的决定系数alpha等于0,表示不是支持向量,在epsil

支持向量回归问题。 在支持向量回归中,最后的决定系数alpha等于0,表示不是支持向量,在epsilon带内。大于0小于C表示在epsilon带上,大于C表示在带外。但是我做的过程中发展,会有微小差别,比如alpha等于0应该在带内,但是他在带外,虽然不明显,差的特别小,但是我想问一下这个的原因是什么?内外网都搜索了没有相关回答
  • 写回答

1条回答 默认 最新

  • 你知我知皆知 2024-07-23 22:58
    关注

    以下回答参考 皆我百晓生券券喵儿 等免费微信小程序相关内容作答,并由本人整理回复。

    在支持向量回归(SVR)中,"最终的决定系数 alpha 等于 0 表示不是支持向量" 这个说法是错误的。实际上,SVR 是一个泛化模型,它允许参数 α 来调节支持向量的位置和强度。

    在 SVR 中,α 是一个正实数,其值决定了支持向量的距离和宽度。当 α = 1 时,所有的样本点都会被当作支持向量,并且它们之间的距离将是整个数据集的最大距离。而 α 取任何非零值时,只有那些与当前预测值最接近的支持向量会被选为支持向量。

    如果 α 的值非常大,那么支持向量将远离原始数据集,这可能意味着数据点之间有较大的距离,或者某些点可能无法被识别为支持向量。相反,如果 α 很小,则支持向量可能会过于靠近原始数据点,从而导致过拟合。

    因此,当你发现 α 等于 0 或接近 0 时,这意味着支持向量相对于原始数据点很近或没有,这可能是由于训练数据质量较差、特征选择不当或其他原因造成的。为了改善这种情况,你可以尝试调整 α 值以找到最佳的支持向量位置。

    评论

报告相同问题?