2 zziymt zzIymt 于 2015.07.09 20:42 提问

svm对输入数据的顺序是否敏感?

svm对输入数据的顺序是否敏感?

一组相同的训练数据,只是顺序不同,训练出来的超平面是否一定相同?
可以以opencv 中的svm或者vlfeat中svm讲解原因。

2个回答

devmiao
devmiao   Ds   Rxr 2015.07.09 20:54

有时候svm是顺序敏感的。对样本的选择有技巧。要防止过早优化。

gzhsss
gzhsss   2015.07.12 08:22

具体是什么时候对顺序敏感呢?

对样本的选择需要遵循怎样的原则?你说的技巧是什么?

防止过早优化的理由是什么?

抱歉问的这么细,因为感觉你的回答还是很有信息量的。

Csdn user default icon
上传中...
上传图片
插入图片
准确详细的回答,更有利于被提问者采纳,从而获得C币。复制、灌水、广告等回答会被删除,是时候展现真正的技术了!
其他相关推荐
SVM对噪声敏感原因
今天看西瓜书,然后看到习题关于 “SVM对噪声敏感原因”,看了几个答案,感觉不够系统,说的太细了,反而有种不太全面的感觉。我想了一下,大约应该是会过拟合。因为SVM约束条件就是对于每个样本要正确分类,至于间隔最大是在这个约束条件的基础上进行的,所以如果约束条件成立就已经导致模型非常复杂,然后过拟合,那么就算是用 min WW 进行约束,也已经效果不大。就跟“扬汤止沸不如釜底抽薪”一样。我的这个想法
逻辑回归和SVM的区别
1、LR采用log损失,SVM采用合页损失。 2、LR对异常值敏感,SVM对异常值不敏感。 3、在训练集较小时,SVM较适用,而LR需要较多的样本。 4、LR模型找到的那个超平面,是尽量让所有点都远离他,而SVM寻找的那个超平面,是只让最靠近中间分割线的那些点尽量远离,即只用到那些支持向量的样本。 5、对非线性问题的处理方式不同,LR主要靠特征构造,必须组合交叉特征,特征离散化。SVM也可
数据挖掘方法比较
一、可解释性和应用广泛性 1、决策树:简单直观,逻辑性强,易于理解和应用,广泛使用。 2、神经网络:可解释性差,远没有决策树和回归应用广泛。 3、Logistic回归:更为成熟、应用更为广泛,具有强大的活力和最广泛的业务应用基础。 二、缺失值和异常值敏感情况 1、决策树:对缺失值几乎不做处理即可应用,不易受到异常值影响。 2、神经网络:对缺失值敏感,需要对缺失值处理(赋值、替换或删除)
lr-svm
LR-SVM(有待重新整理) 参考:http://www.zhihu.com/question/26768865 总结: 1)在线学习:SVM不支持在线学习,LR支持 2)不平衡数据:SVM不依赖于数据的分布,所以数据是否平衡影响不是很大(有影响的);LR依赖于数据的分布所以不平衡的数据需要进行平衡处理 3)【解释2】SVM只受少数点的影响,同一类的数据的数量并不影响分类效果
数据挖掘(机器学习)面试--SVM面试常考问题
应聘数据挖掘工程师或机器学习工程师,面试官经常会考量面试者对SVM的理解。 以下是我自己在准备面试过程中,基于个人理解,总结的一些SVM面试常考问题(想到会再更新),如有错漏,请批评指正。(大神请忽视) 转载请注明出处:blog.csdn.net/szlcw1
2.朴素贝叶斯Naive Bayes
1.思想简介和实例 http://www.cnblogs.com/leoo2sk/archive/2010/09/17/naive-bayesian-classifier.html 2.适用情况和评价 朴素贝叶斯分类器(NBC)基于一个简单的假定:给定目标值时属性之间相互条件独立。 所需估计的参数很少,对缺失数据不太敏感,算法也比较简单。理论上,NBC模型与其他分类方法
对SVM的理解
之前以为SVM很强大很神秘,自己了解了之后发现原理并不难,不过,“大师的功力在于将idea使用数学定义它,使用物理描述它”,这一点在看SVM的数学部分的时候已经深刻的体会到了,最小二乘法、梯度下降法、拉格朗日乘子、对偶问题等等被搞的焦头烂额。在培乐园听了讲课之后才算比较清晰的了解了整个数学推导的来龙去脉。 1. 为什么一定要研究线性分类? 首先说一下为什么对数据集一定要说线性可分或线性
SVM常见问题
本文转至blog.csdn.net/szlcw1应聘数据挖掘工程师或机器学习工程师,面试官经常会考量面试者对SVM的理解。 以下是我自己在准备面试过程中,基于个人理解,总结的一些SVM面试常考问题(想到会再更新),如有错漏,请批评指正。(大神请忽视) 转载请注明出处:blog.csdn.net/szlcw1 SVM的原理是什么? SVM是一种二类分类模型。它的基本模型是在特征空间中寻找间隔最大化的分
样本失衡会对SVM的影响
样本失衡会对SVM的影响 假设正类样本远多于负类 1、线性可分的情况 假设真实数据集如下:  由于负类样本量太少,可能会出现下面这种情况 使得分隔超平面偏向负类。严格意义上,这种样本不平衡不是因为样本数量的问题,而是因为边界点发生了变化 2、线性不可分的情况 源数据以及理想的超平面情况如下: 很可能由于负类样本太少出现以下这种情况,超平面偏向负类  
机器学习相关岗面试问题总结(持续更新)
写在前面1.Overfitting是什么?怎么解决?overfitting就是过拟合, 其直观的表现如下图所示,随着训练过程的进行,模型复杂度增加,在training data上的error渐渐减小,但是在验证集上的error却反而渐渐增大——因为训练出来的网络过拟合了训练集, 对训练集外的数据却不work, 这称之为泛化(generalization)性能不好。泛化性能是训练的效果评价中的首要目...