ImageVerifierCode 换一换
格式:DOC , 页数:10 ,大小:113.67KB ,
资源ID:4860357      下载积分:8 金币
验证码下载
登录下载
邮箱/手机:
验证码: 获取验证码
温馨提示:
支付成功后,系统会自动生成账号(用户名为邮箱或者手机号,密码是验证码),方便下次登录下载和查询订单;
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

开通VIP
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.zixin.com.cn/docdown/4860357.html】到电脑端继续下载(重复下载【60天内】不扣币)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  
声明  |  会员权益     获赠5币     写作写作

1、填表:    下载求助     留言反馈    退款申请
2、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
3、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
4、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
5、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【快乐****生活】。
6、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
7、本文档遇到问题,请及时私信或留言给本站上传会员【快乐****生活】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。

注意事项

本文(k最近邻算法实验报告.doc)为本站上传会员【快乐****生活】主动上传,咨信网仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知咨信网(发送邮件至1219186828@qq.com、拔打电话4008-655-100或【 微信客服】、【 QQ客服】),核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载【60天内】不扣币。 服务填表

k最近邻算法实验报告.doc

1、题 目k-最近邻算法实现学生姓名学生学号专业班级指导教师2015-1-2实验二 k-最近邻算法实现一、 实验目的1. 加强对k-最近邻算法的理解;2. 锻炼分析问题、解决问题并动手实践的能力。二、 实验要求使用一种你熟悉的程序设计语言,如C+或Java,给定最近邻数k和描述每个元组的属性数n,实现k-最近邻分类算法,至少在两种不同的数据集上比较算法的性能。三、 实验环境Win7 旗舰版 + Visual Studio 2010语言:C+四、 算法描述KNN(k Nearest Neighbors)算法又叫k最临近方法。假设每一个类包含多个样本数据,而且每个数据都有一个唯一的类标记表示这些样本是

2、属于哪一个分类, KNN就是计算每个样本数据到待分类数据的距离。如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。该方法在定类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。KNN方法虽然从原理上也依赖于极限定理,但在类别决策时,只与极少量的相邻样本有关。因此,采用这种方法可以较好地避免样本的不平衡问题。另外,由于KNN方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,KNN方法较其他方法更为适合。该方法的不足之处是计算量较大,因为对每一个待分

3、类的文本都要计算它到全体已知样本的距离,才能求得它的K个最近邻点。目前常用的解决方法是事先对已知样本点进行剪辑,事先去除对分类作用不大的样本。该算法比较适用于样本容量比较大的类域的自动分类,而那些样本容量较小的类域采用这种算法比较容易产生误分。1、 算法思路K-最临近分类方法存放所有的训练样本,在接受待分类的新样本之前不需构造模型,并且直到新的(未标记的)样本需要分类时才建立分类。K-最临近分类基于类比学习,其训练样本由N维数值属性描述,每个样本代表N维空间的一个点。这样,所有训练样本都存放在N维模式空间中。给定一个未知样本,k-最临近分类法搜索模式空间,找出最接近未知样本的K个训练样本。这K

4、个训练样本是未知样本的K个“近邻”。“临近性”又称为相异度(Dissimilarity),由欧几里德距离定义,其中两个点 X(x1,x2,xn)和Y(y1,y2,yn)的欧几里德距离是: 未知样本被分配到K个最临近者中最公共的类。在最简单的情况下,也就是当K=1时,未知样本被指定到模式空间中与之最临近的训练样本的类。2、 算法步骤step.1-初始化距离为最大值;step.2-计算未知样本和每个训练样本的距离dist;step.3-得到目前K个最临近样本中的最大距离maxdist;step.4-如果dist小于maxdist,则将该训练样本作为K-最近邻样本;step.5-重复步骤2、3、4,

5、直到未知样本和所有训练样本的距离都算完;step.6-统计K-最近邻样本中每个类标号出现的次数;step.7-选择出现频率最大的类标号作为未知样本的类标号。3、 算法伪代码搜索k个近邻的算法:kNN(An,k)输入:An为N个训练样本在空间中的坐标(通过文件输入),k为近邻数输出:x所属的类别取A1Ak作为x的初始近邻,计算与测试样本x间的欧式距离d(x,Ai),i=1,2,.,k;按d(x,Ai)升序排序,计算最远样本与x间的距离D-maxd(x,aj) | j=1,2,.,k; for(i=k+1;i=n;i+) 计算ai与x间的距离d(x,Ai); if(d(x,Ai)D then 用A

6、i代替最远样本 按照d(x,Ai)升序排序,计算最远样本与x间的距离D-maxd(x,Aj) | j=1,.,i ;计算前k个样本Ai),i=1,2,.,k所属类别的概率,具有最大概率的类别即为样本x的类。五、 数据结构代码结构如图所示,方法描述如下:KNN:KNN类构造函数,用于读取数据集;get_all_distance:KNN类公有函数,计算要分类的点到所有点的距离;get_distance:KNN类私有函数,计算两点间的距离;get_max_freq_label:KNN类公有函数,在k个数据里,获取最近k个数据的分类最多的标签,将测试数据归位该类。类图如上图所示,KNN类的成员变量描述

7、如下:dataSet:tData型二维数组,用于训练的数据集;k:int型,从k个最近的元素中,找类标号对应的数目的最大值,归类;labels:tLable型一维数组,类标签;map_index_dist:map型,记录测试点到各点的距离;map_label_freq:map型,记录k个邻居类,各类的个数。六、 程序截图七、 实验总结八、 附件1. 程序源码 kNN1.cpp#include#include#include#include#includeusing namespace std;typedef char tLabel;typedef double tData;typedef pa

8、ir PAIR;const int colLen = 2;const int rowLen = 10;ifstream fin;class KNNprivate:tData dataSetrowLencolLen;tLabel labelsrowLen;int k;map map_index_dis;map map_label_freq;double get_distance(tData *d1,tData *d2);public:KNN(int k);void get_all_distance(tData * testData);void get_max_freq_label();struc

9、t CmpByValuebool operator() (const PAIR& lhs,const PAIR& rhs)return lhs.second k = k;fin.open(data.txt);if(!fin)coutcan not open the file data.txtendl;exit(1); /* input the dataSet */ for(int i=0;irowLen;i+)for(int j=0;jdataSetij;finlabelsi;/* * calculate the distance between test data and dataSeti

10、*/double KNN: get_distance(tData *d1,tData *d2)double sum = 0;for(int i=0;icolLen;i+)sum += pow( (d1i-d2i) , 2 );/coutthe sum is = sumendl;return sqrt(sum);/* * calculate all the distance between test data and each training data */void KNN: get_all_distance(tData * testData)double distance;int i;for

11、(i=0;irowLen;i+)distance = get_distance(dataSeti,testData);/ = map_index_disi = distance;/traverse the map to print the index and distancemap:const_iterator it = map_index_dis.begin();while(it!=map_index_dis.end()coutindex = first distance = secondendl;it+;/* * check which label the test data belong

12、s to to classify the test data */void KNN: get_max_freq_label()/transform the map_index_dis to vec_index_disvector vec_index_dis( map_index_dis.begin(),map_index_dis.end() );/sort the vec_index_dis by distance from low to high to get the nearest datasort(vec_index_dis.begin(),vec_index_dis.end(),Cmp

13、ByValue();for(int i=0;ik;i+)coutthe index = vec_index_disi.first the distance = vec_index_disi.second the label = labelsvec_index_disi.first the coordinate ( dataSet vec_index_disi.first 0,dataSet vec_index_disi.first 1 )endl;/calculate the count of each labelmap_label_freq labels vec_index_disi.fir

14、st +;map:const_iterator map_it = map_label_freq.begin();tLabel label;int max_freq = 0;/find the most frequent labelwhile( map_it != map_label_freq.end() )if( map_it-second max_freq )max_freq = map_it-second;label = map_it-first;map_it+;coutThe test data belongs to the label labelendl;int main()tData testDatacolLen;int k ;coutplease input the k value : k;KNN knn(k);coutplease input the test data :endl;for(int i=0;itestDatai;knn.get_all_distance(testData);knn.get_max_freq_label(); system(pause); return 0;2. 数据集data.txt

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2025 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服