m0_37129722 2017-03-28 02:05 采纳率: 0%
浏览 630

有关svm的支持向量,有一个重要的问题发现,急需高手解答!

图片说明
图片说明
如图1,是我打算进行分类的样本点,标签已经用点的颜色进行表示,很明显能够看出来左侧主要为绿色点,右侧主要为红色点,直观上看决策线应该是一条竖直的直线

图2是我利用MATLAB里自带的svmtrain函数进行的分类结果,可以发现决策边界与理论上的竖直直线近似。

但我发现了一个重大的问题,图像中用黑色圆圈圈出来的点是支持向量,而这些支持向量基本把错误点全部圈出来了(即绿色分类里的红色点,红色分类里的绿色点,全部都是支持向量)

请问这种现象是为什么?可以从原理上去解释这个问题吗?

请求高人指点,十万火急!

PS:图2和图1相比,我做了一下轴对称,图1中绿色类在左边,图2中在右边,这个不影响最终结果

  • 写回答

1条回答 默认 最新

  • ChatGPTᴼᴾᴱᴺᴬᴵ 2023-02-28 12:11
    关注

    该回答引用ChatGPT

    这种现象是SVM算法的核心特征之一,也是其优势所在。在SVM算法中,支持向量是对分类决策边界产生影响的点,因此它们的位置和数量非常重要。在图中的分类问题中,所有被错误分类的样本点都成为了支持向量,这说明SVM算法非常关注那些难以分类的样本点,通过选择合适的决策边界和最大化边界距离的方法,来尽可能地将这些难以分类的样本点正确分类。


    在SVM算法中,支持向量的数量往往是很少的,这意味着SVM算法的决策边界具有很强的泛化能力,即对新的样本点具有很好的分类能力。而且,SVM算法的决策边界通常很简单,因为它只关注支持向量,而不是整个数据集。这使得SVM算法在处理高维数据集时具有很好的优势,因为它可以通过选择少量的支持向量来构建高维空间中的决策边界,从而避免了维数灾难问题。


    因此,在SVM算法中,支持向量是非常重要的概念,它们的数量和位置决定了分类器的性能和泛化能力。当支持向量的数量很少时,SVM算法往往可以得到非常好的分类效果,并且能够对新的样本点进行准确的分类。

    评论

报告相同问题?

悬赏问题

  • ¥15 请教一下各位,为什么我这个没有实现模拟点击
  • ¥15 执行 virtuoso 命令后,界面没有,cadence 启动不起来
  • ¥50 comfyui下连接animatediff节点生成视频质量非常差的原因
  • ¥20 有关区间dp的问题求解
  • ¥15 多电路系统共用电源的串扰问题
  • ¥15 slam rangenet++配置
  • ¥15 有没有研究水声通信方面的帮我改俩matlab代码
  • ¥15 ubuntu子系统密码忘记
  • ¥15 保护模式-系统加载-段寄存器
  • ¥15 电脑桌面设定一个区域禁止鼠标操作