收藏 分销(赏)

数据仓库与数据挖掘技术复习资料.doc

上传人:丰**** 文档编号:3127378 上传时间:2024-06-19 格式:DOC 页数:9 大小:169.50KB
下载 相关 举报
数据仓库与数据挖掘技术复习资料.doc_第1页
第1页 / 共9页
数据仓库与数据挖掘技术复习资料.doc_第2页
第2页 / 共9页
数据仓库与数据挖掘技术复习资料.doc_第3页
第3页 / 共9页
数据仓库与数据挖掘技术复习资料.doc_第4页
第4页 / 共9页
数据仓库与数据挖掘技术复习资料.doc_第5页
第5页 / 共9页
点击查看更多>>
资源描述

1、数据仓库与数据挖掘技术复习资料一、单项选择题1. 数据挖掘技术包括三个主要的部分 ( C ) A数据、模型、技术 B算法、技术、领域知识 C数据、建模能力、算法与技术 D建模能力、算法与技术、领域知识2.关于基本数据的元数据是指: ( D )A.基本元数据与数据源,数据仓库,数据集市和应用程序等结构相关的信息;B.基本元数据包括与企业相关的管理方面的数据和信息;C.基本元数据包括日志文件和简历执行处理的时序调度信息;D.基本元数据包括关于装载和更新处理,分析处理以及管理方面的信息。3. 关于OLAP和OLTP的说法,下列不正确的是: ( A)AOLAP事务量大,但事务内容比较简单且重复率高BO

2、LAP的最终数据来源与OLTP不一样COLTP面对的是决策人员和高层管理人员DOLTP以应用为核心,是应用驱动的4将原始数据进行集成、变换、维度规约、数值规约是在以下哪个步骤的任务?( C )A. 频繁模式挖掘 B. 分类和预测 C. 数据预处理 D. 数据流挖掘5下面哪种不属于数据预处理的方法? ( D )A.变量代换 B.离散化 C. 聚集 D. 估计遗漏值 6. 在ID3 算法中信息增益是指( D ) A.信息的溢出程度 B.信息的增加效益C.熵增加的程度最大 D.熵减少的程度最大7. 以下哪个算法是基于规则的分类器 ( A ) A. C4.5 B. KNN C. Bayes D. AN

3、N8. 以下哪项关于决策树的说法是错误的( C )A冗余属性不会对决策树的准确率造成不利的影响B子树可能在决策树中重复多次C决策树算法对于噪声的干扰非常敏感D寻找最佳决策树是NP完全问题9. 假设收入属性的最小与最大分别是10000和90000,现在想把当前值30000映射到区间0,1,若采用最大最小数据规范方法,计算结果是( A )A. 0.25 B. 0.375 C.0.125 D. 0.5 10. 在抽样方法中,当合适的样本容量很难确定时,可以使用的抽样方法是: ( D )A.有放回的简单随机抽样 B.无放回的简单随机抽样C.分层抽样 D.渐进抽样11. 当不知道数据所带标签时,可以使用

4、哪种技术促使带同类标签的数据与带其他标签的数据相分离?( B) A. 分类 B.聚类 C. 关联分析 D. 隐马尔可夫链12. 设X=1,2,3是频繁项集,则可由X产生( C )个关联规则。A.4 B.5 C.6 D.713.( C )将两个簇的邻近度定义为不同簇的所有点对的平均逐对邻近度,它是一种凝聚层次聚类技术。 AMIN(单链) BMAX(全链) C组平均 DWard方法14. 只有非零值才重要的二元属性被称作:( C )A.计数属性 B.离散属性C.非对称的二元属性 D.对称属性15. 在基本K均值算法里,当邻近度函数采用( A )的时候,合适的质心是簇中各点的中位数。A.曼哈顿距离

5、B.平方欧几里德距离 C.余弦距离 D.Bregman散度16. 下面关于数据粒度的描述不正确的是: ( C )A. 粒度是指数据仓库小数据单元的详细程度和级别B. 数据越详细,粒度就越小,级别也就越高C. 数据综合度越高,粒度也就越大,级别也就越高D. 粒度的具体划分将直接影响数据仓库中的数据量以及查询质量17. 某超市研究销售纪录数据后发现,买啤酒的人很大概率也会购买尿布,这种属于数据挖掘的哪类问题?( B ) A.聚类 B.关联规则发现 C.分类 D.自然语言处理18. OLAP技术的核心是: ( D )A.在线性 B.对用户的快速响应 C. 互操作性 D.多维分析19下面哪种不属于数据

6、预处理的方法? ( D )A.变量代换 B.离散化 C. 聚集 D.估计遗漏值 20. 假设12个销售价格记录组已经排序如下:5, 10, 11, 13, 15, 35, 50, 55, 72, 92, 204, 215 使用如下每种方法将它们划分成四个箱。等深划分时,15在第几个箱子内? ( B )A.第一个 B.第二个 C.第三个 D.第四个21. 上题中,等宽划分时(宽度为50),15又在哪个箱子里? ( A )A.第一个 B.第二个 C.第三个 D.第四个 22. 熵是为消除不确定性所需要获得的信息量,投掷均匀正六面体骰子的熵是: ( B )A.1bit B.2.6bit C.3.2b

7、it D.3.8bit23. 假设属性income的最大最小值分别是12000元和98000元。利用最大最小规范化的方法将属性的值映射到0至1的范围内。对属性income的73600元将被转化为:( D )A.0.821 B.1.224 C.1.458 D.0.71624. 假定用于分析的数据包含属性age。数据元组中age的值如下(按递增序):13,15,16,16,19,20,20,21,22,22,25,25,25,30,33,33,35,35,36,40,45,46,52,70, 问题:使用按箱平均值平滑方法对上述数据进行平滑,箱的深度为3。第二个箱子值为:( A )A. 18.3 B

8、. 22.6 C. 26.8 D.27.925.给定两个对象,分别用元组(22,1,42,10)和(20,0,36,8)表示,则这两个对象之间的曼哈坦距离为:( ) A.5 B.11 C.2.92 D.2.2426. 概念分层图是( B )图。A.无向无环 B.有向无环 C.有向有环 D.无向有环27. 假设A为事件“产品合格”,B为“机器工作正常”,现给出以下概率:机器工作正常,生产产品合格的概率为P(A|B)=0.95;机器不正常工作时,生产产品合格的概率为=0.1;机器正常工作的概率,即P(B)=0.9。已知生产了一个不合格品,机器不正常工作的概率,即是( )。A.0.90 B.0.33

9、3 C.0.667 D.0.05二、填空题1数据仓库是面向主题的、( 集成的 )、( 具有特性的 )、稳定的数据集合,用以支持经营管理中的决策制定过程。2OLAP的基本多维分析操作有(聚类 )、切片、切块以及( 旋转 )等。3.多维数据集通常采用 ( 星型 )或雪花型架构,以( 事实 )为中心,连接多个( 维表 )。4.空缺值数据的处理方法主要有使用默认值、(属性平均值)、(同类样本平均值)和预测最可能的值等。5平均互信息等于( 信息 )熵减( 条件 )熵,表示不确定性的消除。6.神经网络的学习方式有3种:( 监督学习 )、( 非监督学习 )和再励学习(强化学习)。7.聚类分析的数据通常可分为

10、区间标度变量、二元变量、( 标称变量 )、(比例标度变量)、序数型以及混合类型等。8数据立方体是数据的多维建模和表示,由维和事实组成。维就是涉及的( 属性 )、而事实是一个具体的( 数据)。9.数据预处理的主要内容(方法)包括( 数据清洗 )、( 数据变换 )、(数据集成)和数据归约等。10.关联规则的经典算法包括( Apriori)算法和(FP_Growth)算法,其中( FP_Growth )算法的效率更高。11.非线性回归的模型有:直接换元法、(间接代换法)和( 非线性型)三种。12.人工神经网络的特点和优势主要表现在具有(自学习 )功能、具有(联系存储 )功能和具有高速寻找优化解的能力

11、三个方面。13. ID3算法只能对描述属性为( 离散 )型属性的数据集构造决策树。14.按照对应的数据类型,Web挖掘可分为内容挖掘、( )和( )。15.BP神经网络由( 输入)、( 输出 )以及一或多个隐含结点组成。三、判断题1. 数据挖掘的目标不在于数据采集策略,而在于对于已经存在的数据进行模式的发掘。 ( 对 )2. 模式为对数据集的全局性总结,它对整个测量空间的每一点做出描述;模型则对变量变化空间的一个有限区域做出描述。 ( 错)3. 数据仓库中间层OLAP服务器只能采用关系型OLAP。 ( 错)4. 特征提取技术并不依赖于特定的领域。 ( 错 )5. 定量属性可以是整数值或者是连续

12、值。 ( 对)6. Web数据挖掘是通过数据库仲的一些属性来预测另一个属性,它在验证用户提出的假设过程中提取信息。 ( 错)7.贝叶斯法是一种在已知后验概率与类条件概率的情况下的模式分类方法,待分样本的分类结果取决于各类域中样本的全体。 ( 错)8. 给定由两次运行K均值产生的两个不同的簇集,误差的平方和最大的那个应该被视为较优。 ( 错)。9. 如果规则不满足置信度阈值,则形成的规则一定也不满足置信度阈值,其中是X的子集。 ( 对)10.分类和回归都可用于预测,分类的输出是离散的类别值,而回归的输出是连续数值。 ( 对)11.如果一个对象不强属于任何簇,那么该对象是基于聚类的离群点。 (对

13、)12. K均值是一种产生划分聚类的基于密度的聚类算法,簇的个数由算法自动地确定。 (错 )13. 数据挖掘的主要任务是从数据中发现潜在的规则,从而能更好的完成描述数据、预测数据等任务。 ( 对 )14. 离散属性总是具有有限个值。 ( 错 )15. 用于分类的离散化方法之间的根本区别在于是否使用类信息。( 对 )16. 特征提取技术并不依赖于特定的领域。 ( 错 )17. 定量属性可以是整数值或者是连续值。 ( 对 )18. Web数据挖掘是通过数据库仲的一些属性来预测另一个属性,它在验证用户提出的假设过程中提取信息。 ( 错)19. 关联规则挖掘过程是发现满足最小支持度的所有项集代表的规则

14、。(错 )20. 利用先验原理可以帮助减少频繁项集产生时需要探查的候选项个数。( 对)21. 具有较高的支持度的项集具有较高的置信度。 (错 )22. 聚类(clustering)是这样的过程:它找出描述并区分数据类或概念的模型(或函数),以便能够使用模型预测类标记未知的对象类。 (错 )23. 分类和回归都可用于预测,分类的输出是离散的类别值,而回归的输出是连续数值。 ( 对)四、简答题1设某事务项集构成如表1所示,填空完成粗体字部分支持度和置信度的计算,保留1位小数。表1事务ID项集L2支持度%规则置信度%T1A,DA,B33.3A=B50T2D,EA,C33.3C=A60T3A,C,EA

15、,D44.4A=D66.7T4A,B,D,EB,D33.3B=D75T5A,B,CC,D33.3C=D60T6A,B,DD,E33.3D=E42.9T7A,C,DT8C,D,ET9B,C,D2. 写出非对称二元变量相异度计算公式(即jaccard系数),并计算表2中各对象间的相异度。表2测试项目对 象test-1test-2test-3test-4test-5test-6OBJ1YNPNNNOBJ2YNPNPNOBJ3NYNYNN解:Jaccard系数公式可描述为非对称二元相异度=取值不同的同位属性数/(单个元素的属性位数-同取0的位数)。,其中r表示对象i取值为1,对象j取值为0;s表示对象

16、i取0值,对象j取1值,q表示对象i和j同取1值。 3.给定两个对象,分别用元组(22,1,42,10)和(20,0,36,8)表示(a)计算两个对象之间的欧几里德的距离;(b)计算两个对象之间的曼哈坦距离;(c)计算两个对象间的明考斯基距离,q3。解:(a)欧几里德距离:;(b)曼哈坦距离:;(c)明考斯基距离,q=3。五、分析题1. 已知某事务数据库如表3所示,请采用FP-Growth算法绘制出FP-tree,要求画出绘制过程。表3:事务数据库TID项目列表T1I1,I2,I5T2I2,I3T3I2,I4T4I1,I2,I4T5I1,I4,I5T6I2,I3T7I3,I4T8I1,I2,I

17、3,I5T9I1,I2,I3解:图:FP-tree2给定表4所示的训练数据,数据样本属性age,income,student和credit_rating描述。类标号属性buys_computer具有两个不同值(即Yes,No)。给定一个没有类标号的数据样本X=(age=”=30”,income=”medium”,student=”yes”,credit_rating=”fair”),使用朴素贝叶斯分类预测这个数据样本的类标号。(10分)表4 数据库训练数据元组RIDageincomestudentCredit_ratingClass:buys_computer1=30highnofairNo2

18、40 mediumnofairYes540lowyesfairYes640lowyesexcellentNo73140lowyesexcellentYes8=30mediumnofairNo940mediumyesfairYes1140mediumnoexcellentNo解:(1)每个类的先验概率P(buys_computer=”Yes”)=9/14P(buys_computer =”No”)=5/14(2)为计算P(X/Ci),i=1,2,计算下面的条件概率:P(age=”30”| buys_computer =”Yes”)=2/9P(age=”30”| buys_computer =”N

19、o”)=3/5P(income=”medium”| buys_computer =”Yes”)=4/9P(income=”medium”| buys_computer =”No”)=2/5P(student=”yes”| buys_computer =”Yes”)=6/9P(student=”yes”| buys_computer =”No”)=1/5P(credit_rating=”fair”| buys_computer =”Yes”)=6/9P(credit_rating=”fair”| buys_computer =”No”)=2/5(3)总结:使用以上概率,可以得到:P(X| buys_computer =”yes”)=(2/9)*(4/9)*(6/9)*(6/9)=0.044P(X| buys_computer =”No”)=(3/5)*(2/5)*(1/5)*(2/5)=0.019P(X| buys_computer =”yes”)P(buys_computer =”yes”)=0.044*(9/14)=0.028P(X| buys_computer =”No”) P(buys_computer =”No”)=0.019*(5/14)=0.007因此,对于样本X,朴素贝叶斯分类预测buys_computer =”Yes”。 . . . .

展开阅读全文
部分上传会员的收益排行 01、路***(¥15400+),02、曲****(¥15300+),
03、wei****016(¥13200+),04、大***流(¥12600+),
05、Fis****915(¥4200+),06、h****i(¥4100+),
07、Q**(¥3400+),08、自******点(¥2400+),
09、h*****x(¥1400+),10、c****e(¥1100+),
11、be*****ha(¥800+),12、13********8(¥800+)。
相似文档                                   自信AI助手自信AI助手
搜索标签

当前位置:首页 > 教育专区 > 其他

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服