1、实 验 报 告 实验名称: 机器学习:线性支持向量机算法实现 学 员: 张麻子 学 号: *********** 培养类型: 硕士 年 级: 专 业: 所属学院: 计算机学院 指导教员: ****** 职 称: 副教授 实 验 室: 实验日期: ﻬ一、实验目得与要求 实验目得:验证SVM(支持向量机)机
2、器学习算法学习情况 要求:自主完成。 二、实验内容与原理 支持向量机(Support Vector Machine, SVM)得基本模型就是在特征空间上找到最佳得分离超平面使得训练集上正负样本间隔最大。SVM就是用来解决二分类问题得有监督学习算法。通过引入了核方法之后SVM也可以用来解决非线性问题。 但本次实验只针对线性二分类问题。 SVM算法分割原则:最小间距最大化,即找距离分割超平面最近得有效点距离超平面距离与最大。 对于线性问题: 假设存在超平面可最优分割样本集为两类,则样本集到超平面距离为: 需压求取: 由于该问题为对偶问题,可变换为: 可用拉格朗日
3、乘数法求解。 但由于本实验中得数据集不可以完美得分为两类,即存在躁点。可引入正则化参数C,用来调节模型得复杂度与训练误差。 作出对应得拉格朗日乘式: 对应得KKT条件为: 故得出需求解得对偶问题: 本次实验使用python编译器,编写程序,数据集共有270个案例,挑选其中70%作为训练数据,剩下30%作为测试数据。进行了两个实验,一个就是取C值为1,直接进行SVM训练;另外一个就是利用交叉验证方法,求取在前面情况下得最优C值. 三、实验器材 实验环境:windows7操作系统+python编译器。 四、实验数据(关键源码附后) 实验数据:来自UCI机器学习数据
4、库,以Heart Disease数据集为例。 五、操作方法与实验步骤 1、选取C=1,训练比例7:3,利用python库sklearn下得SVM()函数进行训练,后对测试集进行测试; 2、选取训练比例7:3,C=np、linspace(0、0001, 1, 30)}。利用交叉验证方法求出C值得最优解。 六、实验结果与分析 实验一得出结果: 可见,训练集得正确率就是0、8677248677248677,小于1,说明训练集存在躁点,需要选择性得排出,才能得到较好得训练效果,测试集正确率达到了0、82716,还须进一步提高。 实验二得出结果: 可见,在上述情况下,当C=0、9
5、65518时,可得到较好得训练效果。 七、问题与建议 (可选) 本次实验只就是对SVM在线性空间得应用,还有非线性问题,多分类问题等。通过研究了解到,对于非线性问题,需要加入核函数;对于多分类问题,需要重新调整模型 八、附录(源代码) import numpy as np import pandas as pd import matplotlib、pyplot as pltﻫimport matplotlib as mplﻫfrom sklearn import svm from sklearn、model_selection import train_test_split, G
6、ridSearchCV from sklearn、metrics import classification_reportﻫ def LoadData(path):ﻫ data = np、loadtxt(path, dtype=float, delimiter=’ ’)ﻫ return dataﻫﻫdef Once_SVM(data, c=0、1, train_rate=0、7):ﻫ x, y = np、split(data, (13,), axis=1) x_train, x_test, y_train, y_test = train_test_split(x
7、 y, random_state=0, train_size=train_rate) clf = svm、SVC(C=c, kernel='linear', decision_function_shape='ovo’) clf、fit(x_train, y_train、ravel())ﻫﻫ print(u'C值: ', c)ﻫ print(u'训练集正确率: ', clf、score(x_train, y_train)) # 精度ﻫ print(u’测试集正确率: ’, clf、score(x_test, y_test)) print(u’测
8、试集预测结果:')ﻫ y_hat = clf、predict(x_test) print(y_hat) print(u'测试集真实结果:') print(y_test、T)ﻫﻫdef CrossValidation_SVM(data, train_rate=0、7): x, y = np、split(data, (13,), axis=1) x_train, x_test, y_train, y_test = train_test_split(x, y, random_state=0, train_size=train_rate)ﻫﻫ
9、 tuned_parameters = [{'kernel': [’linear’], 'C': np、linspace(0、0001, 1, 30)}]ﻫ # 构造这个GridSearch得分类器,5—foldﻫ clf = GridSearchCV(svm、SVC(), tuned_parameters, cv=5, scoring=’accuracy')ﻫ clf、fit(x_train, y_train、ravel())ﻫﻫ print(u’最优参数:’) print(clf、best_params_)ﻫ y_true, y_pred = y_test, clf、predict(x_test)ﻫ print(classification_report(y_true, y_pred))ﻫ if __name__ == ’__main__':ﻫ data = LoadData(u'D:/研究生课程/机器学习/ML_data/heart、dat’) Once_SVM(data, 1, 0、7) CrossValidation_SVM(data, 0、7)
©2010-2025 宁波自信网络信息技术有限公司 版权所有
客服电话:4009-655-100 投诉/维权电话:18658249818