收藏 分销(赏)

数据挖掘课后作业.doc

上传人:xrp****65 文档编号:5881156 上传时间:2024-11-22 格式:DOC 页数:42 大小:205KB 下载积分:10 金币
下载 相关 举报
数据挖掘课后作业.doc_第1页
第1页 / 共42页
数据挖掘课后作业.doc_第2页
第2页 / 共42页


点击查看更多>>
资源描述
数据挖掘课后作业 5.4(实现项目)使用你熟悉的程序设计语言(如C++或Java),实现本章介绍的三种频繁项集挖掘算法:(1)Apriori [AS94B],(2)FP增长[HPY00]和(3)ECLAT [Zak00](使用垂直数据格式挖掘)。在各种类型的大型数据集上比较每种算法的性能。写一个报告,分析在哪些情况下(如数据大小、数据分布、最小支持阀度值设置和模式的稠密度),某种算法比其他算法好,并陈述理由。 三种算法的比较 1、对与项集较大,频繁项集较分散,是一个稀疏型的数据集,性能为Apriori>FP-growth>Eclat 2、对与数据集的项集较小,数据非常稠密的数据集,性能为:FP-growth>Apriori>Eclat 各算法采用的数据表示模式及挖掘策略不同。采用优化措施后的 Apriori算法,对于非稠密数据己经具有较高的效率,其性能甚至优于FP-growth 算法;但由于其采用的是广度优先的挖掘策略,对稠密数据效率仍较差。而 Eclat 算法采用的纵向表示法,对数据集较小的稠密数据,效率相对较高;但对于数据集较大的稀疏数据,效率较低,FP一树浓缩了数据库的主要信息,分而治之的挖掘策略也使挖掘问题的复杂程度有所降低。 答:(1)Apriori算法的实现:使用Java语言实现Apriori算法,AprioriAlgorithm类包含了频繁项集的挖掘过程和频繁关联规则的挖掘过程;ProperSubsetCombination辅助类用于计算一个频繁项集的真子集,采用组合原理,基于数值编码原理实现的组合求解集合的真子集。 Apriori算法的核心实现类为AprioriAlgorithm,实现的Java代码如下所示: (一)核心类 package org.shirdrn.datamining.association; import java.util.HashMap; import java.util.HashSet; import java.util.Iterator; import java.util.Map; import java.util.Set; import java.util.TreeMap; /** * <B>关联规则挖掘:Apriori算法</B> * * <P>该算法基本上按照Apriori算法的基本思想来实现的。 */ public class AprioriAlgorithm { private Map<Integer, Set<String>> txDatabase; // 事务数据库 private Float minSup; // 最小支持度 private Float minConf; // 最小置信度 private Integer txDatabaseCount; // 事务数据库中的事务数 private Map<Integer, Set<Set<String>>> freqItemSet; // 频繁项集集合 private Map<Set<String>, Set<Set<String>>> assiciationRules; // 频繁关联规则集合 public AprioriAlgorithm(     Map<Integer, Set<String>> txDatabase,     Float minSup,     Float minConf) {    this.txDatabase = txDatabase;    this.minSup = minSup;    this.minConf = minConf;    this.txDatabaseCount = this.txDatabase.size();    freqItemSet = new TreeMap<Integer, Set<Set<String>>>();    assiciationRules = new HashMap<Set<String>, Set<Set<String>>>(); } /** * 扫描事务数据库,计算频繁1-项集 * @return */ public Map<Set<String>, Float> getFreq1ItemSet() {    Map<Set<String>, Float> freq1ItemSetMap = new HashMap<Set<String>, Float>();    Map<Set<String>, Integer> candFreq1ItemSet = this.getCandFreq1ItemSet();    Iterator<Map.Entry<Set<String>, Integer>> it = candFreq1ItemSet.entrySet().iterator();    while(it.hasNext()) {     Map.Entry<Set<String>, Integer> entry = it.next();     // 计算支持度     Float supported = new Float(entry.getValue().toString())/new Float(txDatabaseCount);     if(supported>=minSup) {      freq1ItemSetMap.put(entry.getKey(), supported);     }    }    return freq1ItemSetMap; } /** * 计算候选频繁1-项集 * @return */ public Map<Set<String>, Integer> getCandFreq1ItemSet() {    Map<Set<String>, Integer> candFreq1ItemSetMap = new HashMap<Set<String>, Integer>();    Iterator<Map.Entry<Integer, Set<String>>> it = txDatabase.entrySet().iterator();    // 统计支持数,生成候选频繁1-项集    while(it.hasNext()) {     Map.Entry<Integer, Set<String>> entry = it.next();     Set<String> itemSet = entry.getValue();     for(String item : itemSet) {      Set<String> key = new HashSet<String>();      key.add(item.trim());      if(!candFreq1ItemSetMap.containsKey(key)) {       Integer value = 1;       candFreq1ItemSetMap.put(key, value);      }      else {       Integer value = 1+candFreq1ItemSetMap.get(key);       candFreq1ItemSetMap.put(key, value);      }     }    }    return candFreq1ItemSetMap; } /** * 根据频繁(k-1)-项集计算候选频繁k-项集 * * @param m 其中m=k-1 * @param freqMItemSet 频繁(k-1)-项集 * @return */ public Set<Set<String>> aprioriGen(int m, Set<Set<String>> freqMItemSet) {    Set<Set<String>> candFreqKItemSet = new HashSet<Set<String>>();    Iterator<Set<String>> it = freqMItemSet.iterator();    Set<String> originalItemSet = null;    while(it.hasNext()) {     originalItemSet = it.next();     Iterator<Set<String>> itr = this.getIterator(originalItemSet, freqMItemSet);     while(itr.hasNext()) {      Set<String> identicalSet = new HashSet<String>(); // 两个项集相同元素的集合(集合的交运算)          identicalSet.addAll(originalItemSet);      Set<String> set = itr.next();      identicalSet.retainAll(set); // identicalSet中剩下的元素是identicalSet与set集合中公有的元素      if(identicalSet.size() == m-1) { // (k-1)-项集中k-2个相同       Set<String> differentSet = new HashSet<String>(); // 两个项集不同元素的集合(集合的差运算)       differentSet.addAll(originalItemSet);       differentSet.removeAll(set); // 因为有k-2个相同,则differentSet中一定剩下一个元素,即differentSet大小为1       differentSet.addAll(set); // 构造候选k-项集的一个元素(set大小为k-1,differentSet大小为k)       candFreqKItemSet.add(differentSet); // 加入候选k-项集集合      }     }    }    return candFreqKItemSet; } /** * 根据一个频繁k-项集的元素(集合),获取到频繁k-项集的从该元素开始的迭代器实例 * @param itemSet * @param freqKItemSet 频繁k-项集 * @return */ private Iterator<Set<String>> getIterator(Set<String> itemSet, Set<Set<String>> freqKItemSet) {    Iterator<Set<String>> it = freqKItemSet.iterator();    while(it.hasNext()) {     if(itemSet.equals(it.next())) {      break;     }    }    return it; } /** * 根据频繁(k-1)-项集,调用aprioriGen方法,计算频繁k-项集 * * @param k * @param freqMItemSet 频繁(k-1)-项集 * @return */ public Map<Set<String>, Float> getFreqKItemSet(int k, Set<Set<String>> freqMItemSet) {    Map<Set<String>, Integer> candFreqKItemSetMap = new HashMap<Set<String>, Integer>();    // 调用aprioriGen方法,得到候选频繁k-项集    Set<Set<String>> candFreqKItemSet = this.aprioriGen(k-1, freqMItemSet);       // 扫描事务数据库    Iterator<Map.Entry<Integer, Set<String>>> it = txDatabase.entrySet().iterator();    // 统计支持数    while(it.hasNext()) {     Map.Entry<Integer, Set<String>> entry = it.next();     Iterator<Set<String>> kit = candFreqKItemSet.iterator();     while(kit.hasNext()) {      Set<String> kSet = kit.next();      Set<String> set = new HashSet<String>();      set.addAll(kSet);      set.removeAll(entry.getValue()); // 候选频繁k-项集与事务数据库中元素做差元算      if(set.isEmpty()) { // 如果拷贝set为空,支持数加1       if(candFreqKItemSetMap.get(kSet) == null) {        Integer value = 1;        candFreqKItemSetMap.put(kSet, value);       }       else {        Integer value = 1+candFreqKItemSetMap.get(kSet);        candFreqKItemSetMap.put(kSet, value);       }      }     }    }      // 计算支持度,生成频繁k-项集,并返回    return support(candFreqKItemSetMap); } /** * 根据候选频繁k-项集,得到频繁k-项集 * * @param candFreqKItemSetMap 候选k项集(包含支持计数) */ public Map<Set<String>, Float> support(Map<Set<String>, Integer> candFreqKItemSetMap) {    Map<Set<String>, Float> freqKItemSetMap = new HashMap<Set<String>, Float>();    Iterator<Map.Entry<Set<String>, Integer>> it = candFreqKItemSetMap.entrySet().iterator();    while(it.hasNext()) {     Map.Entry<Set<String>, Integer> entry = it.next();     // 计算支持度     Float supportRate = new Float(entry.getValue().toString())/new Float(txDatabaseCount);     if(supportRate<minSup) { // 如果不满足最小支持度,删除      it.remove();     }     else {      freqKItemSetMap.put(entry.getKey(), supportRate);     }    }    return freqKItemSetMap; } /** * 挖掘全部频繁项集 */ public void mineFreqItemSet() {    // 计算频繁1-项集    Set<Set<String>> freqKItemSet = this.getFreq1ItemSet().keySet();    freqItemSet.put(1, freqKItemSet);    // 计算频繁k-项集(k>1)    int k = 2;    while(true) {     Map<Set<String>, Float> freqKItemSetMap = this.getFreqKItemSet(k, freqKItemSet);     if(!freqKItemSetMap.isEmpty()) {      this.freqItemSet.put(k, freqKItemSetMap.keySet());      freqKItemSet = freqKItemSetMap.keySet();     }     else {      break;     }     k++;    } } /** * <P>挖掘频繁关联规则 * <P>首先挖掘出全部的频繁项集,在此基础上挖掘频繁关联规则 */ public void mineAssociationRules() {    freqItemSet.remove(1); // 删除频繁1-项集    Iterator<Map.Entry<Integer, Set<Set<String>>>> it = freqItemSet.entrySet().iterator();    while(it.hasNext()) {     Map.Entry<Integer, Set<Set<String>>> entry = it.next();     for(Set<String> itemSet : entry.getValue()) {      // 对每个频繁项集进行关联规则的挖掘      mine(itemSet);     }    } } /** * 对从频繁项集集合freqItemSet中每迭代出一个频繁项集元素,执行一次关联规则的挖掘 * @param itemSet 频繁项集集合freqItemSet中的一个频繁项集元素 */ public void mine(Set<String> itemSet) {      int n = itemSet.size()/2; // 根据集合的对称性,只需要得到一半的真子集    for(int i=1; i<=n; i++) {     // 得到频繁项集元素itemSet的作为条件的真子集集合     Set<Set<String>> properSubset = ProperSubsetCombination.getProperSubset(i, itemSet);     // 对条件的真子集集合中的每个条件项集,获取到对应的结论项集,从而进一步挖掘频繁关联规则     for(Set<String> conditionSet : properSubset) {      Set<String> conclusionSet = new HashSet<String>();      conclusionSet.addAll(itemSet);      conclusionSet.removeAll(conditionSet); // 删除条件中存在的频繁项      confide(conditionSet, conclusionSet); // 调用计算置信度的方法,并且挖掘出频繁关联规则     }    } } /** * 对得到的一个条件项集和对应的结论项集,计算该关联规则的支持计数,从而根据置信度判断是否是频繁关联规则 * @param conditionSet 条件频繁项集 * @param conclusionSet 结论频繁项集 */ public void confide(Set<String> conditionSet, Set<String> conclusionSet) {    // 扫描事务数据库    Iterator<Map.Entry<Integer, Set<String>>> it = txDatabase.entrySet().iterator();    // 统计关联规则支持计数    int conditionToConclusionCnt = 0; // 关联规则(条件项集推出结论项集)计数    int conclusionToConditionCnt = 0; // 关联规则(结论项集推出条件项集)计数    int supCnt = 0; // 关联规则支持计数    while(it.hasNext()) {     Map.Entry<Integer, Set<String>> entry = it.next();     Set<String> txSet = entry.getValue();     Set<String> set1 = new HashSet<String>();     Set<String> set2 = new HashSet<String>();     set1.addAll(conditionSet);         set1.removeAll(txSet); // 集合差运算:set-txSet     if(set1.isEmpty()) { // 如果set为空,说明事务数据库中包含条件频繁项conditionSet      // 计数      conditionToConclusionCnt++;     }     set2.addAll(conclusionSet);     set2.removeAll(txSet); // 集合差运算:set-txSet     if(set2.isEmpty()) { // 如果set为空,说明事务数据库中包含结论频繁项conclusionSet      // 计数      conclusionToConditionCnt++;          }     if(set1.isEmpty() && set2.isEmpty()) {      supCnt++;     }    }    // 计算置信度    Float conditionToConclusionConf = new Float(supCnt)/new Float(conditionToConclusionCnt);    if(conditionToConclusionConf>=minConf) {     if(assiciationRules.get(conditionSet) == null) { // 如果不存在以该条件频繁项集为条件的关联规则      Set<Set<String>> conclusionSetSet = new HashSet<Set<String>>();      conclusionSetSet.add(conclusionSet);      assiciationRules.put(conditionSet, conclusionSetSet);     }     else {      assiciationRules.get(conditionSet).add(conclusionSet);     }    }    Float conclusionToConditionConf = new Float(supCnt)/new Float(conclusionToConditionCnt);    if(conclusionToConditionConf>=minConf) {     if(assiciationRules.get(conclusionSet) == null) { // 如果不存在以该结论频繁项集为条件的关联规则      Set<Set<String>> conclusionSetSet = new HashSet<Set<String>>();      conclusionSetSet.add(conditionSet);      assiciationRules.put(conclusionSet, conclusionSetSet);     }     else {      assiciationRules.get(conclusionSet).add(conditionSet);     }    } } /** * 经过挖掘得到的频繁项集Map * * @return 挖掘得到的频繁项集集合 */ public Map<Integer, Set<Set<String>>> getFreqItemSet() {    return freqItemSet; } /** * 获取挖掘到的全部的频繁关联规则的集合 * @return 频繁关联规则集合 */ public Map<Set<String>, Set<Set<String>>> getAssiciationRules() {    return assiciationRules; } } (二)辅助类 ProperSubsetCombination类是一个辅助类,在挖掘频繁关联规则的过程中,用于生成一个频繁项集元素的非空真子集,实现代码如下: package org.shirdrn.datamining.association; import java.util.BitSet; import java.util.HashSet; import java.util.Set; /** * <B>求频繁项集元素(集合)的非空真子集集合</B> * <P>从一个集合(大小为n)中取出m(m属于2~n/2的闭区间)个元素的组合实现类,获取非空真子集的集合 */ public class ProperSubsetCombination { private static String[] array; private static BitSet startBitSet; // 比特集合起始状态 private static BitSet endBitSet; // 比特集合终止状态,用来控制循环 private static Set<Set<String>> properSubset; // 真子集集合 /** * 计算得到一个集合的非空真子集集合 * * @param n 真子集的大小 * @param itemSet 一个频繁项集元素 * @return 非空真子集集合 */ public static Set<Set<String>> getProperSubset(int n, Set<String> itemSet) {    String[] array = new String[itemSet.size()];    ProperSubsetCombination.array = itemSet.toArray(array);    properSubset = new HashSet<Set<String>>();    startBitSet = new BitSet();    endBitSet = new BitSet();    // 初始化startBitSet,左侧占满1    for (int i=0; i<n; i++) {     startBitSet.set(i, true);    }    // 初始化endBit,右侧占满1    for (int i=array.length-1; i>=array.length-n; i--) {     endBitSet.set(i, true);    }       // 根据起始startBitSet,将一个组合加入到真子集集合中    get(startBitSet);          while(!startBitSet.equals(endBitSet)) {     int zeroCount = 0; // 统计遇到10后,左边0的个数     int oneCount = 0; // 统计遇到10后,左边1的个数     int pos = 0; // 记录当前遇到10的索引位置         // 遍历startBitSet来确定10出现的位置     for (int i=0; i<array.length; i++) {      if (!startBitSet.get(i)) {       zeroCount++;      }      if (startBitSet.get(i) && !startBitSet.get(i+1)) {       pos = i;       oneCount = i - zeroCount;       // 将10变为01       startBitSet.set(i, false);       startBitSet.set(i+1, true);       break;      }     }     // 将遇到10后,左侧的1全部移动到最左侧     int counter = Math.min(zeroCount, oneCount);     int startIndex = 0;     int endIndex = 0;     if(pos>1 && counter>0) {      pos--;      endIndex = pos;      for (int i=0; i<counter; i++) {       startBitSet.set(startIndex, true);       startBitSet.set(endIndex, false);       startIndex = i+1;       pos--;       if(pos>0) {        endIndex = pos;       }      }     }     get(startBitSet);    }      return properSubset; } /** * 根据一次移位操作得到的startBitSet,得到一个真子集 * @param bitSet */ private static void get(BitSet bitSet) {    Set<String> set = new HashSet<String>();    for(int i=0; i<array.length; i++) {     if(bitSet.get(i)) {      set.add(array[i]);     }    }    properSubset.add(set); } } (2)FP增长算法的实现:使用C++语言实现,实现的代码如下: (一)头文件 #include <iostream> using namespace std; #include <string> #include <map> #include <algorithm> #include <stdio.h> #include <vector> #define debug(a) printf((a)) struct Item{ string item_name;//项目 Item *node_link; //节点链 Item *parent_link; //父节点链 map <string,Item *> child_link; //孩子节点 int support_count; //支持度 }; void print(vector< vector<const Item* > > ssvec) { for(int ii=0;ii<ssvec.size();ii++) { vector<const Item*> ss=ssvec[ii]; for(int jj=0;jj<ss.size();jj++) cout<<"["<<ss[jj]->item_name<<":"<<ss[jj]->support_count<<"] "; cout<<endl; } } bool comp(Item * a, Item* b) { if(a->support_count!=b->support_count) return a->support_count>b->support_count; return a->item_name<b->item_name; } #ifndef _PF_TREE_H #define _PF_TREE_H class PFTree{ map <string,Item *> head_table; void insert(Item * root,Item **vec,int curP,int maxSize,int ); public : Item * root; vector<Item *> T; int min_support; void build_PFTree(vector< vector<string> >);//建表 void init_head_table(vector< vector<string> >);//建树 void build_PFTree(vector< vector<const Item *> >);//建表 void init_head_table(vector< vector<const Item *> >);//建树 vector< vector<const Item*> > generate_base_pattern(Item *);//生成基模式 bool is_signal_path(); //查看是否是单源树 void print_tree(Item *r); void delte_all(Item *root); void print_head_ta
展开阅读全文

开通  VIP会员、SVIP会员  优惠大
下载10份以上建议开通VIP会员
下载20份以上建议开通SVIP会员


开通VIP      成为共赢上传

当前位置:首页 > 环境建筑 > 其他

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        抽奖活动

©2010-2025 宁波自信网络信息技术有限公司  版权所有

客服电话:4009-655-100  投诉/维权电话:18658249818

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :微信公众号    抖音    微博    LOFTER 

客服