收藏 分销(赏)

机器学习SVM(支持向量机)实验报告.doc

上传人:快乐****生活 文档编号:4373668 上传时间:2024-09-14 格式:DOC 页数:5 大小:174KB
下载 相关 举报
机器学习SVM(支持向量机)实验报告.doc_第1页
第1页 / 共5页
机器学习SVM(支持向量机)实验报告.doc_第2页
第2页 / 共5页
机器学习SVM(支持向量机)实验报告.doc_第3页
第3页 / 共5页
机器学习SVM(支持向量机)实验报告.doc_第4页
第4页 / 共5页
机器学习SVM(支持向量机)实验报告.doc_第5页
第5页 / 共5页
亲,该文档总共5页,全部预览完了,如果喜欢就下载吧!
资源描述

1、实 验报 告实验名称: 机器学习:线性支持向量机算法实现 学 员: 张麻子 学 号: * 培养类型: 硕士 年 级: 专 业: 所属学院: 计算机学院 指导教员: * 职 称: 副教授 实 验 室: 实验日期: 一、实验目得与要求实验目得:验证SVM(支持向量机)机器学习算法学习情况要求:自主完成。二、实验内容与原理支持向量机(Support ecr Maine,SVM)得基本模型就是在特征空间上找到最佳得分离超平面使得训练集上正负样本间隔最大。SV就是用来解决二分类问题得有监督学习算法。通过引入了核方法之后SVM也可以用来解决非线性问题。但本次实验只针对线性二分类问题。VM算法分割原则:最小

2、间距最大化,即找距离分割超平面最近得有效点距离超平面距离与最大。对于线性问题:假设存在超平面可最优分割样本集为两类,则样本集到超平面距离为:需压求取:由于该问题为对偶问题,可变换为:可用拉格朗日乘数法求解。但由于本实验中得数据集不可以完美得分为两类,即存在躁点。可引入正则化参数,用来调节模型得复杂度与训练误差。作出对应得拉格朗日乘式:对应得KT条件为:故得出需求解得对偶问题:本次实验使用python编译器,编写程序,数据集共有个案例,挑选其中70作为训练数据,剩下30作为测试数据。进行了两个实验,一个就是取值为,直接进行M训练;另外一个就是利用交叉验证方法,求取在前面情况下得最优值.三、实验器

3、材实验环境:window7操作系统+pyton编译器。四、实验数据(关键源码附后)实验数据:来自CI机器学习数据库,以Hart Disease数据集为例。五、操作方法与实验步骤、选取1,训练比例:3,利用pyon库sler下得SVM()函数进行训练,后对测试集进行测试;2、选取训练比例7:3,n、linspace(、001,1, 30)。利用交叉验证方法求出值得最优解。六、实验结果与分析实验一得出结果:可见,训练集得正确率就是、86772486724677,小于,说明训练集存在躁点,需要选择性得排出,才能得到较好得训练效果,测试集正确率达到了0、276,还须进一步提高。实验二得出结果:可见,在

4、上述情况下,当、965518时,可得到较好得训练效果。七、问题与建议 (可选)本次实验只就是对V在线性空间得应用,还有非线性问题,多分类问题等。通过研究了解到,对于非线性问题,需要加入核函数;对于多分类问题,需要重新调整模型八、附录(源代码)mpor nupy anpimporpana as pdimpr malolb、pyoas pltimpotmatplotb as plrom learn rt smrmsklern、mode_seecton imrtrain_es_p, Griderchfrom sklearn、mtric impot cassfiati_repodf LoadData(

5、path): daa = n、loadxt(a, dtypflo, limte= ) return dataef OneSVM(da,=、, trin_rate=、7): x, yn、splt(dta, (13,),ax=) _trn, xtes, y_rain,y_test = raiet_split(x, ,andom_state0,tran_ze=tirate) cl=sm、SVC(=c, kernel=iner, deciso_function_shape=oo) clf、fit(xtrain, y_tain、rave() prt(uC值: , c) pr(u训练集正确率: ,cl、s

6、core(x_trin, y_train)) # 精度 print(u测试集正确率: , clf、se(x_tet, _tet) print(u测试集预测结果:) yt =clf、pedit(x_test) it(y) pint(u测试集真实结果:) print(_s、)defrossValationSVM(at, tri_t=0、7): x, y = 、pl(at, (3,), axis=1) x_tri,_test, y_an, y_es tra_tst_plit(x, y, nomstate=0, trai_sie=rai_ra)nd_aes keel: lnar, : np、lnspa

7、ce(、001, , 0) # 构造这个Gridah得分类器,fold c GrSarchC(svm、SVC(), ted_paaeters, cv5, scoin=accuay) clf、it(tri, y_trin、ravl() pint(u最优参数:) print(clf、est_prms_) y_true, y_pred yst, cl、redict(xst) prnt(lasification_reprt(_rue, y_pred)if _nme_ =_main_: data LoadDta(uD:/研究生课程/机器学习/ML_dataheart、at) Once_SVM(data,, 、7) rsValidation_SV(ata,、)

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 教育专区 > 其他

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服