m0_37129722 2017-03-28 02:05 采纳率: 0%
浏览 630

有关svm的支持向量,有一个重要的问题发现,急需高手解答!

图片说明
图片说明
如图1,是我打算进行分类的样本点,标签已经用点的颜色进行表示,很明显能够看出来左侧主要为绿色点,右侧主要为红色点,直观上看决策线应该是一条竖直的直线

图2是我利用MATLAB里自带的svmtrain函数进行的分类结果,可以发现决策边界与理论上的竖直直线近似。

但我发现了一个重大的问题,图像中用黑色圆圈圈出来的点是支持向量,而这些支持向量基本把错误点全部圈出来了(即绿色分类里的红色点,红色分类里的绿色点,全部都是支持向量)

请问这种现象是为什么?可以从原理上去解释这个问题吗?

请求高人指点,十万火急!

PS:图2和图1相比,我做了一下轴对称,图1中绿色类在左边,图2中在右边,这个不影响最终结果

  • 写回答

1条回答 默认 最新

  • ChatGPTᴼᴾᴱᴺᴬᴵ 2023-02-28 12:11
    关注

    该回答引用ChatGPT

    这种现象是SVM算法的核心特征之一,也是其优势所在。在SVM算法中,支持向量是对分类决策边界产生影响的点,因此它们的位置和数量非常重要。在图中的分类问题中,所有被错误分类的样本点都成为了支持向量,这说明SVM算法非常关注那些难以分类的样本点,通过选择合适的决策边界和最大化边界距离的方法,来尽可能地将这些难以分类的样本点正确分类。


    在SVM算法中,支持向量的数量往往是很少的,这意味着SVM算法的决策边界具有很强的泛化能力,即对新的样本点具有很好的分类能力。而且,SVM算法的决策边界通常很简单,因为它只关注支持向量,而不是整个数据集。这使得SVM算法在处理高维数据集时具有很好的优势,因为它可以通过选择少量的支持向量来构建高维空间中的决策边界,从而避免了维数灾难问题。


    因此,在SVM算法中,支持向量是非常重要的概念,它们的数量和位置决定了分类器的性能和泛化能力。当支持向量的数量很少时,SVM算法往往可以得到非常好的分类效果,并且能够对新的样本点进行准确的分类。

    评论

报告相同问题?

悬赏问题

  • ¥15 让node服务器有自动加载文件的功能
  • ¥15 r语言蛋白组学相关问题
  • ¥15 Python时间序列如何拟合疏系数模型
  • ¥15 求学软件的前人们指明方向🥺
  • ¥50 如何增强飞上天的树莓派的热点信号强度,以使得笔记本可以在地面实现远程桌面连接
  • ¥20 双层网络上信息-疾病传播
  • ¥50 paddlepaddle pinn
  • ¥20 idea运行测试代码报错问题
  • ¥15 网络监控:网络故障告警通知
  • ¥15 django项目运行报编码错误