刚开始接触支持向量机,不是很懂是什么问题直接上图吧,求解答,


晚上好🌙🌙🌙
本答案参考ChatGPT-3.5
支持向量机(Support Vector Machine,简称SVM)是一种经典的二分类模型,其基本思想是在特征空间中找到一个最优的超平面,使得不同类别的样本点到超平面的距离之和最大。在Python中,可以使用Scikit-learn库实现SVM模型。
具体实现步骤如下:
from sklearn import svm
from sklearn.datasets import make_blobs
import numpy as np
X, y = make_blobs(n_samples=100, centers=2, random_state=6)
clf = svm.SVC(kernel='linear', C=1000)
clf.fit(X, y)
其中,kernel参数指定核函数,这里使用的是线性核函数;C参数是惩罚系数,如果C越大,则会强调分类的正确性,但容易过拟合。
import matplotlib.pyplot as plt
plt.scatter(X[:, 0], X[:, 1], c=y, s=30, cmap=plt.cm.Paired)
ax = plt.gca()
xlim = ax.get_xlim()
ylim = ax.get_ylim()
xx = np.linspace(xlim[0], xlim[1], 10)
yy = np.linspace(ylim[0], ylim[1], 10)
YY, XX = np.meshgrid(yy, xx)
xy = np.vstack([XX.ravel(), YY.ravel()]).T
Z = clf.decision_function(xy).reshape(XX.shape)
ax.contour(XX, YY, Z, colors='r', levels=[-1, 0, 1], alpha=0.5,
linestyles=['--', '-', '--'])
ax.scatter(clf.support_vectors_[:, 0], clf.support_vectors_[:, 1], s=100,
linewidth=1, facecolors='none', edgecolors='k')
plt.show()
其中,clf.support_vectors_表示支持向量,即在最优超平面上的点。
整个实现过程可参考下面的完整代码:
from sklearn import svm
from sklearn.datasets import make_blobs
import numpy as np
import matplotlib.pyplot as plt
# 导入数据集
X, y = make_blobs(n_samples=100, centers=2, random_state=6)
# 创建SVM模型
clf = svm.SVC(kernel='linear', C=1000)
# 拟合数据
clf.fit(X, y)
# 绘制数据点
plt.scatter(X[:, 0], X[:, 1], c=y, s=30, cmap=plt.cm.Paired)
# 绘制超平面和支持向量
ax = plt.gca()
xlim = ax.get_xlim()
ylim = ax.get_ylim()
xx = np.linspace(xlim[0], xlim[1], 10)
yy = np.linspace(ylim[0], ylim[1], 10)
YY, XX = np.meshgrid(yy, xx)
xy = np.vstack([XX.ravel(), YY.ravel()]).T
Z = clf.decision_function(xy).reshape(XX.shape)
ax.contour(XX, YY, Z, colors='r', levels=[-1, 0, 1], alpha=0.5,
linestyles=['--', '-', '--'])
ax.scatter(clf.support_vectors_[:, 0], clf.support_vectors_[:, 1], s=100,
linewidth=1, facecolors='none', edgecolors='k')
plt.show()
最后可以获得如下图所示的决策边界和支持向量。
