“机器学习”系列之SVM(支持向量机)
发布时间:2025-07-22 编辑:游乐网
“机器学习”系列之SVM(支持向量机)
0 前言
支持向量机(support vector machine,常简称为SVM,又名支持向量网络)是在分类与回归分析中分析数据的监督式学习模型与相关的学习算法。给定一组训练实例,每个训练实例被标记为属于两个类别中的一个或另一个,SVM训练算法创建一个将新的实例分配给两个类别之一的模型,使其成为非概率二元线性分类器。SVM模型是将实例表示为空间中的点,这样映射就使得单独类别的实例被尽可能宽的明显的间隔分开。然后,将新的实例映射到同一空间,并基于它们落在间隔的哪一侧来预测所属类别。1 SVM
SVM的最核心的思想就是从输入空间(ipnut space)向一个更加高维度(feature space)的映射。与神经网络的隐含层相似,从输入向某一个中间的阶段做了一个映射,再进行分类。最本源,是一个线性分类器。如下图
2 SVM的options求解
两个目标:样本分对;最大化Margin(最小化 w乘以w的转置 )样本是两类:+1,-1(标签),+1的样本必须wx+b>=1,才是将样本分对。如下图
3 线性不可分问题下的SVM
基本思想:一维不可分映射为高维度(feature space),映射不唯一。
4 自定义函数实现SVM
In [1]!pip install sklearn登录后复制In [2]
import numpy as npimport pandas as pdimport sklearnfrom sklearn.datasets import load_irisfrom sklearn.model_selection import train_test_splitimport matplotlib.pyplot as plt%matplotlib inline登录后复制In [3]
# datadef create_data(): iris = load_iris() df = pd.DataFrame(iris.data, columns=iris.feature_names) df['label'] = iris.target df.columns = ['sepal length', 'sepal width', 'petal length', 'petal width', 'label'] data = np.array(df.iloc[:100, [0, 1, -1]]) for i in range(len(data)): if data[i,-1] == 0: data[i,-1] = -1 # print(data) return data[:,:2], data[:,-1]登录后复制In [4]
X, y = create_data()X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.25)登录后复制In [5]
plt.scatter(X[:50,0],X[:50,1], label='0')plt.scatter(X[50:,0],X[50:,1], label='1')plt.legend()登录后复制
登录后复制
登录后复制In [6]
class SVM: def __init__(self, max_iter=100, kernel='linear'): self.max_iter = max_iter self._kernel = kernel def init_args(self, features, labels): self.m, self.n = features.shape self.X = features self.Y = labels self.b = 0.0 # 将Ei保存在一个列表里 self.alpha = np.ones(self.m) self.E = [self._E(i) for i in range(self.m)] # 松弛变量 self.C = 1.0 def _KKT(self, i): y_g = self._g(i)*self.Y[i] if self.alpha[i] == 0: return y_g >= 1 elif 0 < self.alpha[i] < self.C: return y_g == 1 else: return y_g <= 1 # g(x)预测值,输入xi(X[i]) def _g(self, i): r = self.b for j in range(self.m): r += self.alpha[j]*self.Y[j]*self.kernel(self.X[i], self.X[j]) return r # 核函数 def kernel(self, x1, x2): if self._kernel == 'linear': return sum([x1[k]*x2[k] for k in range(self.n)]) elif self._kernel == 'poly': return (sum([x1[k]*x2[k] for k in range(self.n)]) + 1)**2 return 0 # E(x)为g(x)对输入x的预测值和y的差 def _E(self, i): return self._g(i) - self.Y[i] def _init_alpha(self): # 外层循环首先遍历所有满足0= 0: j = min(range(self.m), key=lambda x: self.E[x]) else: j = max(range(self.m), key=lambda x: self.E[x]) return i, j def _compare(self, _alpha, L, H): if _alpha > H: return H elif _alpha < L: return L else: return _alpha def fit(self, features, labels): self.init_args(features, labels) for t in range(self.max_iter): # train i1, i2 = self._init_alpha() # 边界 if self.Y[i1] == self.Y[i2]: L = max(0, self.alpha[i1]+self.alpha[i2]-self.C) H = min(self.C, self.alpha[i1]+self.alpha[i2]) else: L = max(0, self.alpha[i2]-self.alpha[i1]) H = min(self.C, self.C+self.alpha[i2]-self.alpha[i1]) E1 = self.E[i1] E2 = self.E[i2] # eta=K11+K22-2K12 eta = self.kernel(self.X[i1], self.X[i1]) + self.kernel(self.X[i2], self.X[i2]) - 2*self.kernel(self.X[i1], self.X[i2]) if eta <= 0: # print('eta <= 0') continue alpha2_new_unc = self.alpha[i2] + self.Y[i2] * (E2 - E1) / eta alpha2_new = self._compare(alpha2_new_unc, L, H) alpha1_new = self.alpha[i1] + self.Y[i1] * self.Y[i2] * (self.alpha[i2] - alpha2_new) b1_new = -E1 - self.Y[i1] * self.kernel(self.X[i1], self.X[i1]) * (alpha1_new-self.alpha[i1]) - self.Y[i2] * self.kernel(self.X[i2], self.X[i1]) * (alpha2_new-self.alpha[i2])+ self.b b2_new = -E2 - self.Y[i1] * self.kernel(self.X[i1], self.X[i2]) * (alpha1_new-self.alpha[i1]) - self.Y[i2] * self.kernel(self.X[i2], self.X[i2]) * (alpha2_new-self.alpha[i2])+ self.b if 0 < alpha1_new < self.C: b_new = b1_new elif 0 < alpha2_new < self.C: b_new = b2_new else: # 选择中点 b_new = (b1_new + b2_new) / 2 # 更新参数 self.alpha[i1] = alpha1_new self.alpha[i2] = alpha2_new self.b = b_new self.E[i1] = self._E(i1) self.E[i2] = self._E(i2) return 'train done!' def predict(self, data): r = self.b for i in range(self.m): r += self.alpha[i] * self.Y[i] * self.kernel(data, self.X[i]) return 1 if r > 0 else -1 def score(self, X_test, y_test): right_count = 0 for i in range(len(X_test)): result = self.predict(X_test[i]) if result == y_test[i]: right_count += 1 return right_count / len(X_test) def _weight(self): # linear model yx = self.Y.reshape(-1, 1)*self.X self.w = np.dot(yx.T, self.alpha) return self.w登录后复制In [7]
svm = SVM(max_iter=200)登录后复制In [8]
svm.fit(X_train, y_train)登录后复制In [9]
svm.score(X_test, y_test)登录后复制
5 调用sklearn.svm.SVC实现SVM
- C:C-SVC的惩罚参数C?默认值是1.0C越大,相当于惩罚松弛变量,希望松弛变量接近0,即对误分类的惩罚增大,趋向于对训练集全分对的情况,这样对训练集测试时准确率很高,但泛化能力弱。C值小,对误分类的惩罚减小,允许容错,将他们当成噪声点,泛化能力较强。- kernel :核函数,默认是rbf,可以是‘linear’, ‘poly’, ‘rbf’, ‘sigmoid’, ‘precomputed’ – 线性:u'v – 多项式:(gamma*u'*v + coef0)^degree – RBF函数:exp(-gamma|u-v|^2) – sigmoid:tanh(gamma*u'*v + coef0)- degree :多项式poly函数的维度,默认是3,选择其他核函数时会被忽略。- gamma : ‘rbf’,‘poly’ 和‘sigmoid’的核函数参数。默认是’auto’,则会选择1/n_features- coef0 :核函数的常数项。对于‘poly’和 ‘sigmoid’有用。- probability :是否采用概率估计?.默认为False- shrinking :是否采用shrinking heuristic方法,默认为true- tol :停止训练的误差值大小,默认为1e-3- cache_size :核函数cache缓存大小,默认为200- class_weight :类别的权重,字典形式传递。设置第几类的参数C为weight*C(C-SVC中的C- verbose :允许冗余输出?- max_iter :最大迭代次数。-1为无限制。- decision_function_shape :‘ovo’, ‘ovr’ or None, default=None3- random_state :数据洗牌时的种子值,int值主要调节的参数有:C、kernel、degree、gamma、coef0。登录后复制In [10]
from sklearn.svm import SVCclf = SVC()clf.fit(X_train, y_train)登录后复制
SVC(C=1.0, break_ties=False, cache_size=200, class_weight=None, coef0=0.0, decision_function_shape='ovr', degree=3, gamma='scale', kernel='rbf', max_iter=-1, probability=False, random_state=None, shrinking=True, tol=0.001, verbose=False)登录后复制In [11]
clf.score(X_test, y_test)登录后复制
1.0登录后复制
相关阅读
MORE
+- 如何用夸克搜索提高浏览器使用效率 夸克搜索常见快捷键组合介绍 07-23 如何用夸克搜索查找考试真题资料 夸克搜索学习类文档集中整理 07-23
- 如何通过夸克搜索提高科研效率 夸克搜索研究数据获取建议 07-23 如何用夸克AI大模型分析行业趋势 夸克AI大模型商业洞察能力展示 07-23
- 剪映PC端怎么调整界面布局 剪映专业版工作区自定义 07-23 豆包AI写作助手怎么生成爆款标题 快速掌握文案创作的AI秘诀 07-23
- Deepseek 满血版联合 Resemble AI,定制专属语音助手 07-23 Claude在写论文初稿中的表现如何?实测结构与语义准确性 07-23
- 如何利用DeepSeek辅助英语学习?它的语法检查和写作建议准确吗? 07-23 《塞尔达传说》首部真人大电影官宣林克、塞尔达选角 07-23
- 贾跃亭又拿到钱了!FF获1.05亿美元融资 加速FX Super One生产交付 07-23 豆包AI可以写学术摘要吗 豆包AI论文摘要生成效果评测 07-23
- Deepseek 满血版 + Writesonic,批量生成博客文章大纲 07-23 Greenshot如何添加水印 Greenshot自定义水印图文教程 07-22
- 剪映PC端怎么使用预设包 剪映专业版模板导入导出指南 07-22 Monodepth2-基于自监督学习的单目深度估计模型 07-22
- AI语言生成视频内容是否适合用于商业广告投放?分析来了 07-22 2025年必备的AI视频剪辑工具推荐与功能比较 07-22