收藏 分销(赏)

基于标签相关性的标签特定特征多标签学习.pdf

上传人:自信****多点 文档编号:581953 上传时间:2024-01-02 格式:PDF 页数:11 大小:6.38MB
下载 相关 举报
基于标签相关性的标签特定特征多标签学习.pdf_第1页
第1页 / 共11页
基于标签相关性的标签特定特征多标签学习.pdf_第2页
第2页 / 共11页
基于标签相关性的标签特定特征多标签学习.pdf_第3页
第3页 / 共11页
亲,该文档总共11页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、针对标签特定特征多标签学习算法(multi-label learningwith label-specificfeatures,LIFT)未能在聚类以及分类阶段考虑标签相关性问题,提出一种基于标签相关性的标签特定特征多标签学习算法(multi-label learning with label-specific features via label correlations,LFLC).将标签空间加入特征空间进行聚类构建分类模型,采用考虑标签相关性的聚类集成技术为每个标签构造标签特定特征,使用相关性矩阵构建无向完全图并挖掘图中标签集合相关性,通过树集成表达标签间多种不同结构的强相关性.在试验部

2、分,采用涵盖不同领域的10 个数据集,以Hamming Loss、Ra n k i n gLoss、O n e-e r r o r、Co v e r a g e、A v e r a g e Pr e c i s i o n 和macroAUC为评估指标,进行了参数敏感性分析和统计假设检验.结果表明:结合聚类集成与标签间强相关性的LFLC算法较其他对比多标签算法整体上能取得较好的效果,关键词:多标签学习;标签特定特征;聚类集成;标签相关性;无向完全图;最小生成树中图分类号:TP391引文格式:王进,梁晨,孙开伟,等。基于标签相关性的标签特定特征多标签学习J.江苏大学学报(自然科学版),2 0 2

3、 3,44(5):554 563,576.Multi-label learning with label-specific features via label correlations文献标志码:A文章编号:16 7 1-7 7 7 5(2 0 2 3)0 5-0 554-10WANG Jin,LIANG Chen,SUN Kaiwei,CHEN Qiaosong,DENG Xin(Key Laboratory of Data Engineering and Visual Computing,Chongqing University of Posts and Telecommunicatio

4、ns,Chongqing 400065China)Abstract:To solve the problem that multi-label learning with label specific features(LIFT)could notconsider label correlation in the clustering and classification stages,a method for multi-label learning withlabel-specific features via label correlations(LFLC)was proposed.Th

5、e label space was added to the featurespace for clustering to construct the classification model,and the clustering ensemble with considering labelcorrelation was used to construct label-specific features for each label.The correlation matrix was used toconstruct undirected complete graph and mine t

6、he correlation of label sets in the graph.The strongcorrelation of multiple different structures between labels was expressed by tree ensemble.In theexperiment,10 data sets covering different fields were used,and Hamming Loss,Ranking Loss,One-error,Coverage,Average Precision and macroAUC were used a

7、s evaluation indexes to carry out parametersensitivity analysis and statistical hypothesis test.The results show that the LFLC algorithm combinedwith clustering ensemble and strong correlation between labels can obtain better performance generally.Key words:multi-label learning;label-specific featur

8、e;clustering ensemble;label correlation;undirected complete graph;minimum spanning tree收稿日期:2 0 2 1-11-2 6基金项目:国家自然科学基金资助项目(6 18 0 6 0 33)作者简介:王进(197 9一),男,重庆人,教授(),主要从事机器学习与数据挖掘研究.梁晨(1997 一),男,四川成都人,硕士研究生(2 438 2 0 8 59 ),主要从事机器学习研究。555第5期王进等:基于标签相关性的标签特定特征多标签学习传统监督学习中假设实例仅对应一个类别标签,但是现实世界中的实例往往包含多个

9、标签,比如一张图片可能同时包含人与动物,一则新闻也可能包含政治和经济2 种类别.多标签学习1(multi-labellearning)就是针对此类问题.由于实例可能拥有多个标签,复杂多变的多标签数据给多标签学习带来了更大的困难.近几年多标签学习在图像识别、文本分类、视频标注、音乐分类、基因功能分类等领域2-5 得到了广泛应用.多标签学习的任务是从已知实例与标签集中学习,来预测一个不可见实例的标签集合.现已经有大量成熟的方法来解决不同领域的多标签学习问题,主要分为2 类6 :问题转换法(problem transformation,PT)和算法适应法(a l g o r i t h m a d

10、a p t a t i o n,A A).具体而言,问题转换法将多标签学习转换成一个或多个单标签分类;算法适应法则是直接修改现有的分类算法,令其可以直接处理多标签数据.由于多标签学习中一个实例包含多个标签,那么标签之间自然而然存在相关性,因此在学习过程中探索标签间相关性是提高多标签分类性能的一大途径.除了标签相关性,标签特定特征多标签学习算法(multi-labellearningwithlabel-specific features,LIFT)首次提出为每个标签构造特征,该特征是实例与标签间最相关且最有区别的特征;在LIFT中分别对标签的正负实例使用K-means聚类,而后通过欧式距离度量实

11、例与聚类中心之间差异来构建标签特定特征,最后使用分类器将构建的标签特定特征进行分类;但是由于初始点和离群点问题,K-means的结果并不稳定,同时LIFT各个标签在聚类和分类的过程中相互独立,未能考虑标签间的相关性.基于聚类集成的标签特定特征多标签学习算法(multi-label learning with label-specificfeatures via clustering ensemble,LIFTACE)采用聚类集成技术在生成稳定聚类结果的过程中考虑标签相关性,但是该算法同样未能在K-means 聚类以及分类阶段考虑标签相关性.文中拟提出一种基于标签相关性的标签特定特征多标签学习算

12、法(multi-label learning with label-specific features via label correlations,LFLC),该算法在聚类和分类阶段中同时考虑标签间相关性.首先LFLC在聚类阶段加人标签空间进行聚类,这基于一个假设:对于预测标签而言,除了实例空间相似性,含有标签相似性的实例同样具有相似性.其次采用图算法构建最大生成树,并探索标签间强相关性建立对应的分类模型,结合树集成方法抑制树深带来的误差传递,并充分利用标签间的强相关性,1相关工作在多标签学习中,由于实例标签集中包含多个标签,标签之间往往会相互关联.探索标签间相关性有助于提高多标签学习的性能

13、.多标签学习根据利用标签相关性策略不同可以大致分为3类:一阶策略、二阶策略和高阶策略.一阶策略完全忽略标签间的相关性.二元关系法(binaryrelevance,BR)是一种简单的一阶策略,直接将多标签数据集中的每个标签拆分开来,转化为多个不相关的单标签问题,对每个标签单独构建数据集与分类器.多标签K近邻算法(K-nearest neighbors for multi-label lear-ning,ML-KNN)是一种算法适应法,该算法基于K近邻算法直接处理多标签数据集.LIFT在聚类和分类过程中标签相互独立,属于一阶策略.多标签决策树(multi-label decision tree,M

14、L-DT)采用决策树来处理多标签数据,该算法修改传统熵值计算方法适应多标签数据,同样也是一阶策略.二阶策略考虑成对标签相关性.校准标签排序算法(calibratedla-bel ranking,CLR)将多标签学习转化为标签排序问题;通过标签成对组合然后为每对标签构建数据集和分类器,预测阶段对标签进行投票.多标签支持向量机(ranking support vector machine,Rank-SVM)是一种算法适应法,通过修改支持向量机直接处理多标签数据.高阶策略考虑标签之间的高阶关系.分类器链(classifierchain,C C)将多标签分类问题转换成链式问题进行解决,它将当前标签的分

15、类结果作为新的特征添加到下一个标签的特征集合中进行分类,也即当前预测的特征集依赖于前面预测的标签结果.CC有一个较为明显的问题,就是链式预测中存在误差传递,如果前面标签预测存在错误,那么会影响后面标签预测的准确性.基于标签特定特征分类器链算法7 】(label specific features basedclassifier chain,LSF-CC)使用特征估计技术为每个标签生成最相关的特征和标签列表.标签幂集法(label powerset,LP)用集合的形式直接将多标签数据集转换为单标签数据集,然后使用多分类器进行分类,对结果标签集进行拆分,累加每个标签在结果集中出现的次数后,按次数排

16、序得到实例标签集合.该算法主要有两个问题:首先LP只能预测训练集中出现的标签子集,对于未能出现的标签子集无法预测;其次对于含有n个标签的数据集,其子集个556江苏大学学报(自然科学版)第44卷数最大可能为2 ,极大增加了算法复杂度.对于LP出现的标签集合数量过大问题,随机标签组合多标签分类集成算法8 (random k-label sets,RAkEL)训练多个LP分类器,对于每个分类器,在标签集中随机选择不大于k的标签子集作为LP分类器的标签集,然后通过集成多个分类器的结果以投票的形式对实例进行预测,这种方法既保留了标签间的相关性,同时又减小了LP标签集的大小.除了标签相关性,标签特定特征是

17、标签具有的独特特征,这些特征能够有效地表达和区分不同标签,构造合理的标签特定特征能够有效提升多标签学习的性能9-10 1.LIFT首次提出基于标签特定特征的多标签学习方法,分别对正负实例使用K-means聚类,通过度量聚类中心和样本间的距离来构建标签特定特征用于分类;由于LIFT中的聚类和分类过程中标签相互独立,该算法没有考虑标签间相关性.LLSF(le a r n in g la b e l-s p e c if ic f e a t u r e s)假设标签仅与给定数据集的原始特征集中相关特征子集关联,而这些相关特征可以直接当作标签特定特征.LIFTACE改进了聚类过程并考虑了标签相关性,

18、采用聚类集成技术使聚类结果更加稳定.MLFC(l a-bel specific features by resolving label correlations)实现标签特定特征和标签间相关性的协作学习,优化框架学习特征权重,并通过构造附加特征来考虑标签相关性;LF-LELC12结合标签嫡与聚类集成获得聚类中心,而后通过特征选择技术挖掘标签相关性.文中对LIFTACE进行改进,提出了基于标签相关性的标签特定特征多标签分类算法.首先在聚类阶段分别对正负实例的特征空间与标签空间聚类,采用考训练集DD,=(Xi,Y)D2=(X2,Y2):DN=(XN,YN)P=(x,UYi,AiEYi)Ne=(x,

19、UY,入$Yi)标签相关性构图G=(V,E)V=(li,l2,lg)E=(corr(,),ev,fev)Gmax=arg max W(G)G虑标签相关性的聚类集成技术,使聚类结果更加稳定有效并为每个标签构造标签特定特征;然后使用成对标签的相关系数构建无向完全图探索标签间相关性,采用最大生成树挖掘标签间的强相关性,在使用树集成充分利用标签间强相关性的同时抑制误差传递;最后对未知实例在同样的树结构上进行集成分类2基于聚类集成和标签相关性的标签特定特征多标签分类算法2.1符号定义设D=1X,Y为m个样本的训练集,其中XR*是由d个特征向量X,X,,X,构成的输人空间,Y=R是由q个目标向量l,l2,

20、,l。构成的输出空间.LFLC的任务是学习一个映射函数Pk:XZ,(1k q),从原始d维空间X到一个d,维标签特定特征空间Z,并通过度量特征空间与标签特定特征的距离结合标签相关性构建新的特征空间D,然后训练每个标签的分类模型fiB(D,),最后采用树集成预测实例的多标签集合R.2.2LFLC算法描述为了结合标签相关性对多标签学习进行建模,LFLC算法框架主要包括以下2 个阶段:标签特定特征:通过对结合标签空间的多标签数据采用聚类集成技术为每个标签构造标签特定特征.树集成:采用成对标签相关性构图,并通过图算法挖掘标签集合间相关性,通过筛选树集合抑制误差传递,在树上进行递归预测,最终结合多棵树的

21、结果进行集成分类.图1为LFLC的训练与预测框架.构造实例相似矩阵谱聚类C2mkC,个WC,=exp-Y(1-cos)WI!更新相似矩阵Cam点WCk_WLWI=wCk树上递旧训练构造标签特定特征LF,LF:中心m,=r.min(IPl,/N,l)9(x)=dist(x,c),dis(x,c.),dist(x,cm)j-1j-2树集合Trees(a)训练2mk:LF2mj=t557第5期王进等:基于标签相关性的标签特定特征多标签学习测试样本XX=(X,X,xa)计算标签特定特征2.2.1结合标签空间构造标签特定特征标签特定特征是标签最相关和最有区分度的特征,该特征表达出了实例与标签之间的关联性

22、,文中通过结合标签空间的聚类集成构造标签特定特征.具体而言,对于标签集合中的每个标签lEy,首先根据标签正负性将原始数据集分割成P.和Nk,分别代表标签的正、负实例集;与LIFTACE不同,假设对于预测标签,除了特征空间,标签空间相似的实例仍然具有相似性,将标签空间加人原始特征空间中:P,=ix,UY,I(x,Y)ED,lhEY,l,IN.=(x;UY,I(x;,Y)eD,Y,I.采用K-means算法分别对P,和N进行聚类,在多标签学习中存在类不平衡问题13,标签的正实例数远远小于负实例数,即IP,IIN,I,为了应对该问题,正负实例数据集中聚类中心簇的个数设置为mi=r min(IP,l,

23、IN,1)1,(2)式中:rE(0,1 是控制聚类中心个数的比例参数.由于K-means 受初始值和离群点的影响,聚类结果并不稳定,这使得聚类很难准确表达实例与标签间的联系,因此在LIFTACE中应用了聚类集成技术生成更稳定的聚类结果;对于每个标签lEy,根据聚类结果构造实例相似矩阵,其构造式为1,ck(x)=ck(x,),式中:Cs(x,)代表实例x,在聚类中的簇编号.对于X;EPk,满足1c(x,)m;对于x;ENa,满足ms+1ck(x,)2mk.2个具有相关性的标签,对应的实例相似矩阵也应该是相似的.基于这一假设,通过计算余弦相似度来构造标签相似矩阵,衡量标签之间的相似性.标签相似矩阵

24、WC的子项计算式为WC,=exp-(1-cos),式中:是一个大于0 的超参数,文中采用LIFTA-CE中的设置,令其等于10;cos 表示标签l.与之间的余弦相似度;对于标签lE,代表的是m维向量,cos的计算式为cos=ylyj/(Ilyu ll Il y,ll).预测结果树集合Trees递归预测(b)预测图1LFLC的训练与预测框架通过组合所有标签的实例相似矩阵来更新每个标签的实例相似矩阵,在更新标签实例相似矩阵过程中考虑标签间的相关性.对于标签lEy,更新实例相似矩阵方法为WI=Z(WCw/ZWC.)WI,在更新后的实例相似矩阵上,选择简单有效的SPEC算法进行聚类;聚类数量计算式与式

25、(2)相同.直观地说,聚类中心可以反映实例特征与标签之间的联系,因此聚类中心可用于构建标签特定特(1)征.对于标签ley.P.的聚类中心pi.p,paN.的聚类中心ni,nnelLFLC 创建了一种映射关系k:X Z(1k q),从原始的d维空间X到一个d,维标签特定特征空间Z,其构造方式为a(x)=d(x,pl),d(x,p),d(x,pmg),d(x,n),d(x,n),d(x,nm),(7)式中:d(,)表示2 个实例之间的距离,使用欧氏距离进行度量。2.2.2树集成标签相关性LFLC通过探索标签间的强相关性来建立分类模型.采用皮尔逊系数成对度量标签间的相关性,以标签为点集,标签间相关系

26、数为边集构建无向完(3)全图,采用最大生成树算法挖掘图中包含强相关性的树结构,同时假设树中的标签lE依赖其祖先标签,那么在预测阶段,将其祖先标签预测结果添加到标签特定特征中,对该特征采用基分类器进行分类,并在后续所有子节点的预测中都采用相同方式进行递归预测.具体而言,构建一个无向完全图G=V,E,其中标签集V=l,l2,,l 为顶点集,成对标签的相关性 E=i corr(l;,l)Il;e V,l,=VI为边集,corr(l.,(4)l)为皮尔逊系数,其计算式为Z(u-1)(-t)corr(l,l,)=-K=(5)j-1树集成(6)(8)558江苏大学学报(自然科学版)第44卷G=为G=的一个

27、连通生成子图,其中V=V且ECE.令W(G)=Ze 表示全局标签相关性,为了使 WG)最大化,其问题转换为求G中的连通生成子图Gmax满足Gmax=W(G).为突出标签间的强相关性,忽略弱相关性,在图中剔除弱边的同时保证标签间连通性,此时有W(G)=e,其中IEI=q-1.(10)可以得出G为G的一棵生成树,对于式(9)可采用最大生成树算法进行求解.W,表示标签l,在Gmx中从根节点到父节点的祖先节点集合,同时W也是标签l的相关标签集,A,则是W,构成的相关标签二进制数据集:A=n(Y,Wl),n(Y,W.),n(Y,W),1,Wie Y,式中:n(Y,W)=表示标签是否在实lo,Wi&

28、;Y3 试验例的标签集中.此时标签l特定特征可以扩充为(x)=d(x,Pi),d(x,p),d(xi,Phg),d(xi,nt),d(x,nd),d(xi,nm),A,.(12)对于标签l,其分类数据集可表示为Di=/(x;),n(Yj,lh)11im/.(13)最后采用二分类器B对数据集D,进行分类:fi-B(D).在对多标签数据集进行分类时,只有当W,已知时,才能使用分类器对标签l进行分类.因此分类阶段应从根节点开始,然后递归预测其子节点,直到预测完树中所有节点.与分类器链类似,由于采用树结构来表达标签间的相关性后自上而下进行递归预测,如果W,中存在标签预测错误,则会对标签l,的预测造成影

29、数据集1ISICAL500502language log1 460enron1 702image2000scene2.407yeast2.417slashdot3782corel5k5 000bibtex7 395corel16k-s113 766响,随着递归深度的增加,祖先节点预测错误的影响会被放大;为了减少这种误差传递,需要在保证eeE强相关性的前提下减小IW,1.对于无向完全图而言可能存在多棵结构不同但权值相同的最大生成树,此时设最小高度最大生成树为Gmax,在不降低全局(9)相关性的情况下,通过减小树上递归预测时相关标签集合大小抑制误差传递,由于选择根节点的不同会造成不同的递归树结构,

30、表达的标签间强相关性也不一样,为了充分利用标签间的强相关性,同时减小选择不同根节点带来的影响,采用集成的思想,使用多棵Gmax树进行分类.对于一个未知实例uEX,树集成个数为t,其标签集Y的预测如下:Y,=/f,(g,(u)0.5,1 hg(11)3.1数据集对于多标签数据集S=1(x;,Y,)I 1in ,文中用以下符号来表示数据集属性:ISI代表实例个数;dim(S)代表特征个数;L(S)代表标签集合大小;Lcard(S)表示实例包含标签的平均数量;Lden(S)表示实例中的标签密度,同时还记录了数据集所属领域.为了准确评估 LFLC算法的性能,采用8 个常规数据集(1SI5000)和2

31、个较大规模数据集(1SI 50 0 0),这10 个数据集涵盖不同领域,包括音乐、文本、图像和生物学;数据集来源于htp:/ 总结了多标签数据集的详细属性。表1数据集信息表dim(S)L(S)681741 004751 0015329452946103141 079224993741 836159500153(14)Lcard(S)Lden(S)26.0440.1501.1800.0163.3780.0641.2360.2471.0740.1794.2370.3031.1770.0543.5220.0092.4020.0152.8590.019领域musictexttextimageimage

32、imagetextimagetextimage559第5期王进等:基于标签相关性的标签特定特征多标签学习3.2对比方法与评估指标将LFLC与7 种当前主流多标签分类算法进行比较,这7 种算法分别是BR、C LR、RA k EL、LLSF、LIFT、LIFT A CE和LF-LELCL2,其中后3种算法是基于标签特定特征的多标签分类算法.RAkEL是高阶策略,随机选取大小不超过k的标签子集,在试验中集合的大小设为2 q,标签子集的大小设为3.LIFT对标签的正负实例分别使用K-means 获得聚类中心,在试验中设置聚类比例参数r等于0.1.LLSF直接使用原始特征集中相关特征的子集当作标签特定特

33、征,在试验中其参数设定为原文中的默认值LIFTACE采用聚类集成技术使聚类结果更加稳定有效,其聚类比例参数r设置为0.1.LF-LELC聚类比例参数r设置为0.1,相关标签数量参数t设置为3.在BR、CLR、LIFT、LIFT A CE、LF-LELC和LFLC中基分类器设置为使用线性核的SVM分类器,设置算法Hamming Loss ILFLC0.138 0.001(2)BR0.137 0.002(1)CLR0.137 0.002(1)RAkEL0.138 0.002(3)LLSF0.152 0.003(4)LIFT0.137 0.002(1)LIFTACE0.138 0.002(3)LF-

34、LELC0.138 0.001(2)算法Hamming Loss ILFLC0.015 0.000(1)BR0.017 0.000(2)CLR0.017 0.001(3)RAkEL0.017 0.000(2)LLSF0.041 0.001(4)LIFT0.015 0.000(1)LIFTACE0.015 0.000(1)LF-LELC0.015 0.000(1)算法Hamming Loss lLFLC0.046 0.001(1)BR0.060 0.001(6)CLR0.054 0.001(4)RAkEL0.058 0.001(7)LLSF0.056 0.001(5)LIFT0.048 0.00

35、1(3)LIFTACE0.047 0.001(2)LF-LELC0.047 0.001(2)LFLC集成树个数t为3个.对于每个数据集,随机抽取50%的样本组成训练集,剩余50%组成测试集,重复10 次试验,统计每个评估指标的平均值与标准差.为了准确评估LFLC 的性能,采用多标签分类中广泛使用的6 个评估指标,包括Hamming Loss、Ra n k Lo s s、O n e Er r o r、Coverage、A v e r a g e Pr e c i s i o n 和 macroAUC.对于前 4 种指标,其值越小效果越好;对于后2 种指标,其值越大算法效果越好.3.3试验结果表2

36、 11展示了8 种算法在10 个数据集上各个评价指标的平均值与标准差,其中最佳结果用粗体表示;“个”表示值越大,性能越好;“”表示值越小,性能越好.在6 个评价指标中,对8 种算法的性能进行排序,其中Average Rank记录每个算法所有评价指标的平均排名,该值越小,对应算法的整体性能越好.表2 8 种算法在 CAL500上的结果:mean std(rank)AverageRanking Loss IOne-error l0.180 0.002(1)0.119 0.011(1)0.518 0.008(7)0.362 0.038(7)0.181 0.002(2)0.121 0.016(3)0.

37、444 0.005(6)0.286 0.039(5)0.246 0.007(5)0.296 0.045(6)0.184 0.003(4)0.126 0.016(4)0.183 0.002(3)0.120 0.012(2)0.183 0.003(4)0.120 0.012(2)表38 种算法在language log上的结果:mean std(rank)Ranking Loss I0.160 0.005(2)0.421 0.008(8)0.120 0.007(1)0.412 0.010(7)0.335 0.012(6)0.180 0.008(4)0.190 0.010(5)0.170 0.010

38、(3)表48 种算法在enron上的结果:meanstd(rank)Ranking Loss IOne-error l0.084 0.002(3)0.243 0.013(1)0.308 0.007(8)0.498 0.012(8)0.079 0.002(1)0.279 0.010(5)0.241 0.005(7)0.412 0.016(7)0.135 0.003(6)0.304 0.011(6)0.084 0.003(4)0.254 0.005(2)0.085 0.003(5)0.256 0.006(3)0.082 0.003(2)0.258 0.015(4)Coverage I0.754 0

39、.008(2)0.972 0.001(8)0.751 0.008(1)0.971 0.001(7)0.855 0.010(6)0.757 0.011(4)0.756 0.008(3)0.762 0.012(5)One-error lCoverage 0.717 0.021(3)0.199 0.005(5)0.858 0.009(8)0.468 0.010(7)0.756 0.008(5)0.155 0.010(1)0.838 0.014(7)0.459 0.011(7)0.834 0.013(6)0.322 0.013(6)0.693 0.010(2)0.183 0.007(3)0.692 0

40、.011(1)0.191 0.009(4)0.720 0.010(4)0.180 0.010(2)Coverage l0.236 0.007(2)0.595 0.010(8)0.229 0.006(1)0.523 0.008(7)0.329 0.006(6)0.245 0.007(4)0.245 0.009(5)0.238 0.006(3)Average Precision0.500 0.003(2)0.275 0.006(7)0.499 0.005(2)0.353 0.006(6)0.443 0.009(5)0.492 0.005(4)0.496 0.003(3)0.502 0.003(1)

41、Average Precision0.372 0.007(4)0.178 0.009(8)0.377 0.008(3)0.197 0.013(7)0.246 0.008(6)0.388 0.007(1)0.387 0.007(2)0.372 0.008(5)Average Precision0.689 0.007(2)0.449 0.011(8)0.675 0.005(5)0.539 0.006(7)0.630 0.006(6)0.685 0.005(3)0.689 0.005(1)0.685 0.006(4)macroAUC0.519 0.008(4)0.500 0.000(8)0.533

42、0.007(3)0.509 0.001(6)0.540 0.007(2)0.501 0.008(7)0.516 0.005(5)0.546 0.005(1)macroAUC 0.708 0.019(2)0.517 0.002(8)0.676 0.014(5)0.520 0.002(7)0.610 0.023(6)0.714 0.010(1)0.705 0.009(3)0.689 0.012(4)macroAUC 0.687 0.014(5)0.579 0.007(8)0.698 0.013(2)0.596 0.007(7)0.683 0.007(6)0.688 0.018(4)0.690 0.

43、018(3)0.700 0.016(1)Rank2.06.32.05.54.74.03.22.5AverageRank2.86.83.06.25.72.02.73.2AverageRank!2.37.73.07.05.83.33.22.7560江苏大学学报(自然科学版)第44卷表58 种算法在image上的结果:meanstd(rank)Average算法Hamming Loss ILFLC0.157 0.003(1)BR0.185 0.004(4)CLR0.186 0.005(5)RAkEL0.173 0.004(3)LLSF0.218 0.008(6)LIFT0.163 0.003(2)L

44、IFTACE0.163 0.003(2)LF-LELC0.157 0.004(2)算法Hamming LossILFLC0.078 0.003(1)BR0.111 0.003(6)CLR0.112 0.003(7)RAkEL0.096 0.004(5)LLSF0.165 0.006(8)LIFT0.084 0.002(4)LIFTACE0.083 0.002(3)LF-LELC0.080 0.004(2)算法Hamming Loss ILFLC0.194 0.003(1)BR0.201 0.002(4)CLR0.201 0.003(5)RAkEL0.202 0.003(6)LLSF0.257

45、0.021(7)LIFT0.197 0.002(3)LIFTACE0.197 0.002(3)LF-LELC0.194 0.005(2)算法Hamming Loss LFLC0.037 0.001(1)BR0.049 0.001(7)CLR0.050 0.001(8)RAkEL0.048 0.001(6)LLSF0.046 0.001(5)LIFT0.040 0.001(4)LIFTACE0.039 0.001(3)LF-LELC0.038 0.001(2)Ranking Loss I0.150 0.005(2)0.285 0.009(8)0.171 0.008(5)0.196 0.008(6

46、)0.203 0.008(7)0.155 0.007(4)0.152 0.006(3)0.146 0.006(1)表6 8 种算法在 scene 上的结果:mean std(rank)Ranking Loss lOne-error 0.066 0.003(1)0.199 0.009(1)0.171 0.005(8)0.348 0.007(8)0.083 0.004(5)0.255 0.009(6)0.107 0.003(6)0.247 0.009(5)0.121 0.006(7)0.307 0.011(7)0.069 0.002(4)0.212 0.011(4)0.068 0.003(3)0.

47、208 0.010(3)0.066 0.005(2)0.202 0.013(2)表7 8 种算法在yeast上的结果:meanstd(rank)Ranking Loss IOne-rror l0.165 0.004(1)0.221 0.008(1)0.315 0.005(8)0.256 0.008(7)0.172 0.004(4)0.228 0.007(3)0.245 0.004(7)0.251 0.008(6)0.251 0.023(6)0.383 0.059(8)0.169 0.004(5)0.229 0.011(4)0.169 0.004(3)0.224 0.008(2)0.166 0.

48、005(2)0.232 0.009(5)表8 8 种算法在slashdot上的结果:meanstd(rank)Ranking Loss IOne-error l0.091 0.002(1)0.400 0.011(3)0.216 0.004(7)0.501 0.007(8)0.094 0.003(3)0.436 0.005(5)0.190 0.005(6)0.453 0.005(6)0.164 0.004(5)0.467 0.009(7)0.100 0.003(4)0.430 0.013(4)0.092 0.003(2)0.396 0.010(2)0.091 0.002(1)0.391 0.00

49、7(1)One-error I0.277 0.011(1)0.406 0.012(8)0.328 0.017(6)0.312 0.010(5)0.373 0.020(7)0.289 0.012(4)0.283 0.012(3)0.278 0.008(2)Coverage l0.175 0.006(2)0.280 0.008(8)0.190 0.007(5)0.209 0.009(6)0.213 0.008(7)0.178 0.007(4)0.176 0.006(3)0.170 0.005(1)Coverage I0.069 0.002(1)0.158 0.004(8)0.082 0.003(5)0.104 0.003(6)0.115 0.005(7)0.071 0.002(4)0.070 0.002(2)0.070 0.004(3)

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服