收藏 分销(赏)

机器学习SVM(支持向量机)实验报告.doc

上传人:快乐****生活 文档编号:4373668 上传时间:2024-09-14 格式:DOC 页数:5 大小:174KB
下载 相关 举报
机器学习SVM(支持向量机)实验报告.doc_第1页
第1页 / 共5页
机器学习SVM(支持向量机)实验报告.doc_第2页
第2页 / 共5页
点击查看更多>>
资源描述
实 验 报 告 实验名称: 机器学习:线性支持向量机算法实现 学  员: 张麻子     学   号: *********** 培养类型:   硕士   年   级:            专  业:              所属学院: 计算机学院 指导教员:  ******   职   称:   副教授 实 验 室:        实验日期:      ﻬ一、实验目得与要求 实验目得:验证SVM(支持向量机)机器学习算法学习情况 要求:自主完成。 二、实验内容与原理 支持向量机(Support Vector Machine, SVM)得基本模型就是在特征空间上找到最佳得分离超平面使得训练集上正负样本间隔最大。SVM就是用来解决二分类问题得有监督学习算法。通过引入了核方法之后SVM也可以用来解决非线性问题。 但本次实验只针对线性二分类问题。 SVM算法分割原则:最小间距最大化,即找距离分割超平面最近得有效点距离超平面距离与最大。 对于线性问题: 假设存在超平面可最优分割样本集为两类,则样本集到超平面距离为: 需压求取: 由于该问题为对偶问题,可变换为: 可用拉格朗日乘数法求解。 但由于本实验中得数据集不可以完美得分为两类,即存在躁点。可引入正则化参数C,用来调节模型得复杂度与训练误差。 作出对应得拉格朗日乘式: 对应得KKT条件为: 故得出需求解得对偶问题: 本次实验使用python编译器,编写程序,数据集共有270个案例,挑选其中70%作为训练数据,剩下30%作为测试数据。进行了两个实验,一个就是取C值为1,直接进行SVM训练;另外一个就是利用交叉验证方法,求取在前面情况下得最优C值. 三、实验器材 实验环境:windows7操作系统+python编译器。 四、实验数据(关键源码附后) 实验数据:来自UCI机器学习数据库,以Heart Disease数据集为例。 五、操作方法与实验步骤 1、选取C=1,训练比例7:3,利用python库sklearn下得SVM()函数进行训练,后对测试集进行测试; 2、选取训练比例7:3,C=np、linspace(0、0001, 1, 30)}。利用交叉验证方法求出C值得最优解。 六、实验结果与分析 实验一得出结果: 可见,训练集得正确率就是0、8677248677248677,小于1,说明训练集存在躁点,需要选择性得排出,才能得到较好得训练效果,测试集正确率达到了0、82716,还须进一步提高。 实验二得出结果: 可见,在上述情况下,当C=0、965518时,可得到较好得训练效果。 七、问题与建议 (可选) 本次实验只就是对SVM在线性空间得应用,还有非线性问题,多分类问题等。通过研究了解到,对于非线性问题,需要加入核函数;对于多分类问题,需要重新调整模型 八、附录(源代码) import numpy as np import pandas as pd import matplotlib、pyplot as pltﻫimport matplotlib as mplﻫfrom sklearn import svm from sklearn、model_selection import train_test_split, GridSearchCV from sklearn、metrics import classification_reportﻫ def LoadData(path):ﻫ data = np、loadtxt(path, dtype=float, delimiter=’ ’)ﻫ   return dataﻫﻫdef Once_SVM(data, c=0、1, train_rate=0、7):ﻫ  x, y = np、split(data, (13,), axis=1) x_train, x_test, y_train, y_test = train_test_split(x, y, random_state=0, train_size=train_rate)  clf = svm、SVC(C=c, kernel='linear', decision_function_shape='ovo’) clf、fit(x_train, y_train、ravel())ﻫﻫ    print(u'C值: ', c)ﻫ   print(u'训练集正确率: ', clf、score(x_train, y_train)) # 精度ﻫ print(u’测试集正确率: ’, clf、score(x_test, y_test)) print(u’测试集预测结果:')ﻫ y_hat = clf、predict(x_test)   print(y_hat) print(u'测试集真实结果:')   print(y_test、T)ﻫﻫdef CrossValidation_SVM(data, train_rate=0、7):    x, y = np、split(data, (13,), axis=1)     x_train, x_test, y_train, y_test = train_test_split(x, y, random_state=0, train_size=train_rate)ﻫﻫ    tuned_parameters = [{'kernel': [’linear’], 'C': np、linspace(0、0001, 1, 30)}]ﻫ   # 构造这个GridSearch得分类器,5—foldﻫ clf = GridSearchCV(svm、SVC(), tuned_parameters, cv=5, scoring=’accuracy')ﻫ clf、fit(x_train, y_train、ravel())ﻫﻫ   print(u’最优参数:’)   print(clf、best_params_)ﻫ y_true, y_pred = y_test, clf、predict(x_test)ﻫ   print(classification_report(y_true, y_pred))ﻫ if __name__ == ’__main__':ﻫ   data = LoadData(u'D:/研究生课程/机器学习/ML_data/heart、dat’)  Once_SVM(data, 1, 0、7) CrossValidation_SVM(data, 0、7)
展开阅读全文

开通  VIP会员、SVIP会员  优惠大
下载10份以上建议开通VIP会员
下载20份以上建议开通SVIP会员


开通VIP      成为共赢上传
相似文档                                   自信AI助手自信AI助手

当前位置:首页 > 教育专区 > 其他

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        抽奖活动

©2010-2025 宁波自信网络信息技术有限公司  版权所有

客服电话:4009-655-100  投诉/维权电话:18658249818

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :微信公众号    抖音    微博    LOFTER 

客服