后者更优,决策边界距离数据点越远,越优。
1)距离计算
通过数学计算,表达这个距离最远。
上述公式的推导过程如下:
(w,b)确定一个超平面 wZ+b =0,(Z表示平面上的点) 超平面上有两点x‘,x‘’,则满足:
由于:
则:
点到超平面的距离, 即图中dist(x,h) :
进一步整理:
2)数据标签定义
, 其中Θ(x) 指的是数据X进行了变换。
因此,得到这样一个条件:
3)优化目标
①找到这样一条线(w,b)|超平面|决策边界,使得离该线最近的点最远。
再简洁一些,优化决策边界,目标就是找参数w,b。
②对 distance(x,b,w)公式进一步简化,去掉绝对值:
由于
,故distance 简化为:
相比较原式多出一个yi,但是yi取值为 ±1,无影响。
4)目标函数
①放缩变换:对于决策方程
,通过缩放使得|y|≥1,
即:
②优化目标函数【最小距中找最远的】:
argmax :什么时候取最大
第①步的目的很明确
在保证
条件下,目标函数为:
5)目标函数求解
在4)目标函数中,
约束条件:
, 目标函数:
常规做法:
①将求解极大值问题转换成极小值问题
(4)->(5),尽管不是等价变换过来的,但都是在求解 w,b 目的上是一致的。 这个系数是随意的,1/2 1/3 都可以。
②带约束的优化问题,拉格朗日乘数法
构造拉格朗日函数,求对w,b偏导为0的解,舍去不合理的解。
带入w,b, wX+b =0 即为最优决策边界。
6)为什么叫支持向量机?
目标函数求解的详细过程中,可以发现w求解过程只受边缘向量(αi≠0)影响,其他向量对w求解毫无约束作用,这些边缘向量就是支持向量|支撑这个面的向量。
拉格朗日乘数法对w求偏导中,
7)软间隔(soft-margin)
提出软间隔是因为上文的SVM是建立在
这一条件下,也就是在分类完全正确的前提下去寻找最优决策边界的。这会导致SVM过于严格,在噪音点的影响下,决策边界比较差。显然虚线的更符合预期,现实是那条实线。
所以为了降低噪音点的影响,SVM要降低严格程度,引入松弛因子ξi。
Tip:手打柯西可以打出ξ 。
新的目标函数:
C是需要人为指定的参数。 当limit C 很大:ξ 很小,分类严格 limit C很小:ξ 可以很大,分类容忍更大的错误 ,更好地防止过拟合。
指定C多大算大? 交叉验证选择合适的C。
数据本身难分类怎么办?
低维数据 通过函数【数据映射】到高维。
高维数据的数据源是什么? 来自原来低维数据的组合。
计算多维数据,由于复杂度,实际应用的可行性?
高维数据求内积,维度越高,速度越慢,SVM借鉴了高维计算结果,却是在低维以较小的计算量实现的。
高维数据内积结果 = 原低维数据内积平方。
在低维空间使用核函数实现上述”巧合“。
高斯核函数
借助高斯核函数SVM具有优秀的非线性决策边界,因此,深度学习前,SVM成为了最热门模型。
#训练模型
from sklearn import svm
#线性Kermel & 较大的C
model = svm.SVC(kernel='linear',C=1E10).fit(X_train,y_train)
res =model.score(X_train,y_train)
print(f"训练数据上的准确率为:{res}")
res= model.score(X_test,y_test)
print(f"测试数据上的准确率为:{res}")
class sklearn.svm.SVC(C = 1.0, #错误样本的惩罚参数
kernel='rbf', #核函数,linear线性、poly多项式、rbf高斯、sigmoid、precomputed自定义
defree=3, #多项式核函数的阶数
gama='auto', #当kernel = rbf || poly || sigmoid, 默认为 1/n_features
coef0=0.0, #kernel 函数常数项
shrinking=True,
probability=False, #是否估计概率,会增加计算时间
tol=0.001 , #误差项达到指定时停止训练,默认为0.001
cache_size=200,
class_weight=None,
verbose-False,
max_iter=-1,
decision_function_shape="ovr",
random_state=None
)
以鸢尾花分类为例,
from sklearn.svm import SVC
from sklearn.preprocessing import StandardScaler
from sklearn import datasets
from sklearn.model_selection import train_test_split
#读数据
iris = datasets.load_iris()
X = iris.data
y = iris.target
#鸢尾花属于三分类问题,这里想做SVM二分类,提取出两种花束。
setsoa_or_versicolor = (y==0)|(y==1)
X = X[setsoa_or_versicolor]#X中没有y,但一一对应,y[True]-->X[True],相应的X也就被保留下来了。
y = y[setsoa_or_versicolor]
#标准化
std = StandardScaler()
X_std = std.fit_transform(X)
#拆分训练集
X_train, X_test, y_train, y_test = train_test_split(X_std,y,test_size=0.3,random_state=50)
#SVM建模
clf = SVC()
clf.fit(X_train,y_train)
#模型效果
print(clf.score(X_test,y_test))
执行完 train_test_split() 后target 维数改变了,说明前面的返回序列顺序敲的不对,前两项都是X,后两项都是y。
如果不进行标准化,效果会特别差。【下文例子中,标准化前:0.20455436946828742,标准化后:0.6413349923546707】
class sklearn.svm.SVR(C = 1.0, #错误样本的惩罚参数
kernel='rbf', #核函数,linear线性、poly多项式、rbf高斯、sigmoid、precomputed自定义
defree=3, #多项式核函数的阶数
gama='auto', #当kernel = rbf || poly || sigmoid, 默认为 1/n_features
coef0=0.0, #kernel 函数常数项
shrinking=True,
probability=False, #是否估计概率,会增加计算时间
tol=0.001 , #误差项达到指定时停止训练,默认为0.001
cache_size=200,
class_weight=None,
verbose-False,
max_iter=-1,
decision_function_shape="ovr",
random_state=None
)
以波士顿房价预测为例,
from sklearn.svm import SVR
from sklearn.preprocessing import StandardScaler
from sklearn import datasets
from sklearn.model_selection import train_test_split
#读数据
boston = datasets.load_boston()
X = boston.data
y = boston.target
#标准化
std = StandardScaler()
X_std = std.fit_transform(X)
#拆分训练集
X_train, X_test, y_train, y_test = train_test_split(X_std,y,test_size=0.3,random_state=30)
#SVM建模
svr = SVR()
svr.fit(X_train,y_train)
#模型效果
print(svr.score(X_test,y_test))
在参数排列组合中找到最好的参数。
1)续上文鸢尾花的案例,
from sklearn.model_selection import GridSearchCV
#定义 参数组合
params = {
'kernel':('linear','rbf','poly'),
'C':[0.01,0.1,0.5,1,2,10,100]
}
#用网格搜索方式拟合模型
model = GridSearchCV(clf,param_grid=params,cv=10)#Cross Validation,简称CV
model.fit(X_std,y)
#查看结果
print('最好的参数组合: ',model.best_params_)
print('最好的score: ',model.best_score_)
最好的参数组合: {‘C’: 0.01, ‘kernel’: ‘linear’} 最好的score: 1.0
2)续上文波士顿房价预测案例,
from sklearn.model_selection import GridSearchCV
#定义 参数组合
params = {
'kernel':('linear','rbf','poly'),
'C':[0.01,0.1,0.5,1,2,10,100]
}
#用网格搜索方式拟合模型
model = GridSearchCV(svr,param_grid=params,cv=10)#Cross Validation,简称CV
model.fit(X_std,y)
#查看结果
print('最好的参数组合: ',model.best_params_)
print('最好的score: ',model.best_score_)
最好的参数组合: {‘C’: 10, ‘kernel’: ‘rbf’} 最好的score: 0.5241088776988833
使用
svr = SVR(C=10,kernel='rbf')
再一次预测结果为 0.8277187266841405
综上,SVM参数、标准化对模型效果影响很大:
未标准化:0.20455436946828742 标准化后:0.6413349923546707 网格调参后:0.8277187266841405
为什么最好的score: 0.5241088776988833
是一个目前遇到的并不算最高的成绩,不因该是最高的成绩吗?
(待补充) 我心中的TOP1编程语言:python ,为啥?因为我目前最需要它。