收藏 分销(赏)

k最近邻算法实验报告.docx

上传人:Fis****915 文档编号:554564 上传时间:2023-12-08 格式:DOCX 页数:10 大小:96.72KB
下载 相关 举报
k最近邻算法实验报告.docx_第1页
第1页 / 共10页
k最近邻算法实验报告.docx_第2页
第2页 / 共10页
k最近邻算法实验报告.docx_第3页
第3页 / 共10页
k最近邻算法实验报告.docx_第4页
第4页 / 共10页
k最近邻算法实验报告.docx_第5页
第5页 / 共10页
点击查看更多>>
资源描述

1、题 目k-最近邻算法实现学生姓名学生学号专业班级指导教师2015-1-2实验二 k-最近邻算法实现一、 实验目的1. 加强对k-最近邻算法的理解;2. 锻炼分析问题、解决问题并动手实践的能力。二、 实验要求使用一种你熟悉的程序设计语言,如C+或Java,给定最近邻数k和描述每个元组的属性数n,实现k-最近邻分类算法,至少在两种不同的数据集上比较算法的性能。三、 实验环境Win7 旗舰版 + Visual Studio 2010语言:C+四、 算法描述KNN(k Nearest Neighbors)算法又叫k最临近方法。假设每一个类包含多个样本数据,而且每个数据都有一个唯一的类标记表示这些样本是

2、属于哪一个分类, KNN就是计算每个样本数据到待分类数据的距离。如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。该方法在定类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。KNN方法虽然从原理上也依赖于极限定理,但在类别决策时,只与极少量的相邻样本有关。因此,采用这种方法可以较好地避免样本的不平衡问题。另外,由于KNN方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,KNN方法较其他方法更为适合。该方法的不足之处是计算量较大,因为对每一个待分

3、类的文本都要计算它到全体已知样本的距离,才能求得它的K个最近邻点。目前常用的解决方法是事先对已知样本点进行剪辑,事先去除对分类作用不大的样本。该算法比较适用于样本容量比较大的类域的自动分类,而那些样本容量较小的类域采用这种算法比较容易产生误分。1、 算法思路K-最临近分类方法存放所有的训练样本,在接受待分类的新样本之前不需构造模型,并且直到新的(未标记的)样本需要分类时才建立分类。K-最临近分类基于类比学习,其训练样本由N维数值属性描述,每个样本代表N维空间的一个点。这样,所有训练样本都存放在N维模式空间中。给定一个未知样本,k-最临近分类法搜索模式空间,找出最接近未知样本的K个训练样本。这K

4、个训练样本是未知样本的K个“近邻”。“临近性”又称为相异度(Dissimilarity),由欧几里德距离定义,其中两个点 X(x1,x2,xn)和Y(y1,y2,yn)的欧几里德距离是: 未知样本被分配到K个最临近者中最公共的类。在最简单的情况下,也就是当K=1时,未知样本被指定到模式空间中与之最临近的训练样本的类。2、 算法步骤step.1-初始化距离为最大值;step.2-计算未知样本和每个训练样本的距离dist;step.3-得到目前K个最临近样本中的最大距离maxdist;step.4-如果dist小于maxdist,则将该训练样本作为K-最近邻样本;step.5-重复步骤2、3、4,

5、直到未知样本和所有训练样本的距离都算完;step.6-统计K-最近邻样本中每个类标号出现的次数;step.7-选择出现频率最大的类标号作为未知样本的类标号。3、 算法伪代码搜索k个近邻的算法:kNN(An,k)输入:An为N个训练样本在空间中的坐标(通过文件输入),k为近邻数输出:x所属的类别取A1Ak作为x的初始近邻,计算与测试样本x间的欧式距离d(x,Ai),i=1,2,.,k;按d(x,Ai)升序排序,计算最远样本与x间的距离D-maxd(x,aj) | j=1,2,.,k; for(i=k+1;i=n;i+) 计算ai与x间的距离d(x,Ai); if(d(x,Ai)D then 用A

6、i代替最远样本 按照d(x,Ai)升序排序,计算最远样本与x间的距离D-maxd(x,Aj) | j=1,.,i ;计算前k个样本Ai),i=1,2,.,k所属类别的概率,具有最大概率的类别即为样本x的类。五、 数据结构代码结构如图所示,方法描述如下:KNN:KNN类构造函数,用于读取数据集;get_all_distance:KNN类公有函数,计算要分类的点到所有点的距离;get_distance:KNN类私有函数,计算两点间的距离;get_max_freq_label:KNN类公有函数,在k个数据里,获取最近k个数据的分类最多的标签,将测试数据归位该类。类图如上图所示,KNN类的成员变量描述

7、如下:dataSet:tData型二维数组,用于训练的数据集;k:int型,从k个最近的元素中,找类标号对应的数目的最大值,归类;labels:tLable型一维数组,类标签;map_index_dist:map型,记录测试点到各点的距离;map_label_freq:map型,记录k个邻居类,各类的个数。六、 程序截图七、 实验总结八、 附件1. 程序源码 kNN1.cpp#include#include#include#include#includeusing namespace std;typedef char tLabel;typedef double tData;typedef pa

8、ir PAIR;const int colLen = 2;const int rowLen = 10;ifstream fin;class KNNprivate:tData dataSetrowLencolLen;tLabel labelsrowLen;int k;map map_index_dis;map map_label_freq;double get_distance(tData *d1,tData *d2);public:KNN(int k);void get_all_distance(tData * testData);void get_max_freq_label();struc

9、t CmpByValuebool operator() (const PAIR& lhs,const PAIR& rhs)return lhs.second k = k;fin.open(data.txt);if(!fin)coutcan not open the file data.txtendl;exit(1); /* input the dataSet */ for(int i=0;irowLen;i+)for(int j=0;jdataSetij;finlabelsi;/* * calculate the distance between test data and dataSeti

10、*/double KNN: get_distance(tData *d1,tData *d2)double sum = 0;for(int i=0;icolLen;i+)sum += pow( (d1i-d2i) , 2 );/coutthe sum is = sumendl;return sqrt(sum);/* * calculate all the distance between test data and each training data */void KNN: get_all_distance(tData * testData)double distance;int i;for

11、(i=0;irowLen;i+)distance = get_distance(dataSeti,testData);/ = map_index_disi = distance;/traverse the map to print the index and distancemap:const_iterator it = map_index_dis.begin();while(it!=map_index_dis.end()coutindex = first distance = secondendl;it+;/* * check which label the test data belong

12、s to to classify the test data */void KNN: get_max_freq_label()/transform the map_index_dis to vec_index_disvector vec_index_dis( map_index_dis.begin(),map_index_dis.end() );/sort the vec_index_dis by distance from low to high to get the nearest datasort(vec_index_dis.begin(),vec_index_dis.end(),Cmp

13、ByValue();for(int i=0;ik;i+)coutthe index = vec_index_disi.first the distance = vec_index_disi.second the label = labelsvec_index_disi.first the coordinate ( dataSet vec_index_disi.first 0,dataSet vec_index_disi.first 1 )endl;/calculate the count of each labelmap_label_freq labels vec_index_disi.fir

14、st +;map:const_iterator map_it = map_label_freq.begin();tLabel label;int max_freq = 0;/find the most frequent labelwhile( map_it != map_label_freq.end() )if( map_it-second max_freq )max_freq = map_it-second;label = map_it-first;map_it+;coutThe test data belongs to the label labelendl;int main()tData testDatacolLen;int k ;coutplease input the k value : k;KNN knn(k);coutplease input the test data :endl;for(int i=0;itestDatai;knn.get_all_distance(testData);knn.get_max_freq_label(); system(pause); return 0;2. 数据集data.txt

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 教育专区 > 其他

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服