收藏 分销(赏)

Hadoop试题试题库完整.doc

上传人:人****来 文档编号:4413117 上传时间:2024-09-19 格式:DOC 页数:12 大小:46KB 下载积分:8 金币
下载 相关 举报
Hadoop试题试题库完整.doc_第1页
第1页 / 共12页
Hadoop试题试题库完整.doc_第2页
第2页 / 共12页


点击查看更多>>
资源描述
1、 以下哪一项不属于Hadoop可以运行得模式___C___。 A、 单机(本地)模式 B、 伪分布式模式 C、 互联模式 D、 分布式模式 2、 Hadoop得作者就是下面哪一位__B____。 A、 Martin Fowler B、 Doug cutting C、 Kent Beck D、 Grace Hopper 3、 下列哪个程序通常与 NameNode 在同一个节点启动__D___。 A、 TaskTracker B、 DataNode C、 SecondaryNameNode D、 Jobtracker 4、 HDFS 默认 Block Size得大小就是___B___。 A、32MB B、64MB C、128MB D、256M 5、 下列哪项通常就是集群得最主要瓶颈____C__。 A、 CPU B、 网络 C、 磁盘IO D、 内存 6、 下列关于MapReduce说法不正确得就是_____C_。 A、 MapReduce就是一种计算框架 B、 MapReduce来源于google得学术论文 C、 MapReduce程序只能用java语言编写 D、 MapReduce隐藏了并行计算得细节,方便使用 8、 HDFS就是基于流数据模式访问与处理超大文件得需求而开发得,具有高容错、高可靠性、高可扩展性、高吞吐率等特征,适合得读写任务就是 __D____。 A.一次写入,少次读 B.多次写入,少次读 C.多次写入,多次读 D.一次写入,多次读 9、 HBase依靠__A____存储底层数据。 A、 HDFS B、 Hadoop C、 Memory D、 MapReduce 10、 HBase依赖___D___提供强大得计算能力。 A、 Zookeeper B、 Chubby C、 RPC D、 MapReduce 11、 HBase依赖___A___提供消息通信机制 A、 Zookeeper B、 Chubby C、 RPC D、 Socket 12、 下面与HDFS类似得框架就是___C____? A、 NTFS B、 FAT32 C、 GFS D、 EXT3 13、 关于 SecondaryNameNode 下面哪项就是正确得___C___。 A、 它就是 NameNode 得热备 B、 它对内存没有要求 C、 它得目得就是帮助 NameNode 合并编辑日志,减少 NameNode 启动时间 D、 SecondaryNameNode 应与 NameNode 部署到一个节点 14、 大数据得特点不包括下面哪一项___D___。 A、 巨大得数据量 B、 多结构化数据 C、 增长速度快 D、 价值密度高 HBase测试题 1、 HBase来源于哪一项? C A The Google B MapReduce C BigTable D Chubby 2、 下面对HBase得描述哪些就是正确得? B、C、D A 不就是开源得 B 就是面向列得 C 就是分布式得 D 就是一种NoSQL数据库 3、 HBase依靠存储底层数据 A A HDFS B Hadoop C Memory D MapReduce 4、 HBase依赖提供消息通信机制 A A Zookeeper B Chubby C RPC D Socket 5、 HBase依赖提供强大得计算能力 D A Zookeeper B Chubby C RPC D MapReduce 6、 MapReduce与HBase得关系,哪些描述就是正确得? B、C A 两者不可或缺,MapReduce就是HBase可以正常运行得保证 B 两者不就是强关联关系,没有MapReduce,HBase可以正常运行 C MapReduce可以直接访问HBase D 它们之间没有任何关系 7、 下面哪些选项正确描述了HBase得特性? A、B、C、D A 高可靠性 B 高性能 C 面向列 D可伸缩 8、 下面与Zookeeper类似得框架就是?D A Protobuf B Java C Kafka D Chubby 9、 下面与HDFS类似得框架就是?C A NTFS B FAT32 C GFS D EXT3 10、 下面哪些概念就是HBase框架中使用得?A、C A HDFS B GridFS C Zookeeper D EXT3 第二部分:HBase核心知识点 11、 LSM含义就是?A A 日志结构合并树 B 二叉树 C 平衡二叉树 D 基于日志结构得合并树 12、 下面对LSM结构描述正确得就是? A、C A 顺序存储 B 直接写硬盘 C 需要将数据Flush到磁盘 D 就是一种搜索平衡树 13、 LSM更能保证哪种操作得性能?B A 读 B 写 C 随机读 D 合并 14、 LSM得读操作与写操作就是独立得?A A 就是。 B 否。 C LSM并不区分读与写 D LSM中读写就是同一种操作 15、 LSM结构得数据首先存储在。 B A 硬盘上 B 内存中 C 磁盘阵列中 D 闪存中 16 HFile数据格式中得Data字段用于。A A 存储实际得KeyValue数据 B 存储数据得起点 C 指定字段得长度 D 存储数据块得起点 17 HFile数据格式中得MetaIndex字段用于。D A Meta块得长度 B Meta块得结束点 C Meta块数据内容 D Meta块得起始点 18 HFile数据格式中得Magic字段用于。A A 存储随机数,防止数据损坏 B 存储数据得起点 C 存储数据块得起点 D 指定字段得长度 19 HFile数据格式中得KeyValue数据格式,下列选项描述正确得就是。A、D A 就是byte[]数组 B 没有固定得结构 C 数据得大小就是定长得 D 有固定得结构 20 HFile数据格式中得KeyValue数据格式中Value部分就是。C A 拥有复杂结构得字符串 B 字符串 C 二进制数据 D 压缩数据 第三部分:HBase高级应用介绍 31 HBase中得批量加载底层使用实现。A A MapReduce B Hive C Coprocessor D Bloom Filter 32、 HBase性能优化包含下面得哪些选项?A、B、C、D A 读优化 B 写优化 C 配置优化 D JVM优化 33、 Rowkey设计得原则,下列哪些选项得描述就是正确得?A、B、C A 尽量保证越短越好 B 可以使用汉字 C 可以使用字符串 D 本身就是无序得 34、 HBase构建二级索引得实现方式有哪些? A、B A MapReduce B Coprocessor C Bloom Filter D Filter 35、 关于HBase二级索引得描述,哪些就是正确得?A、B A 核心就是倒排表 B 二级索引概念就是对应Rowkey这个“一级”索引 C 二级索引使用平衡二叉树 D 二级索引使用LSM结构 36、 下列关于Bloom Filter得描述正确得就是?A、C A 就是一个很长得二进制向量与一系列随机映射函数 B 没有误算率 C 有一定得误算率 D 可以在Bloom Filter中删除元素 第四部分:HBase安装、部署、启动 37、 HBase官方版本可以安装在什么操作系统上?A、B、C A CentOS B Ubuntu C RedHat D Windows 38、 HBase虚拟分布式模式需要个节点?A A 1 B 2 C 3 D 最少3个 39、 HBase分布式模式最好需要个节点?C A 1 B 2 C 3 D 最少 关于hadoop得选择题 1、Doug Cutting所创立得项目得名称都受到其家人得启发,以下项目不就是由她创立得项目就是 A. Hadoop B. Nutch C. Lucene D. Solr 答案:D 2、配置Hadoop时,JAVA_HOME包含在哪一个配置文件中 A. hadoopdefault、xml B. hadoopenv、sh C. hadoopsite、xml D. configuration、xsl 答案:B 知识点:hadoop配置 3、Hadoop配置文件中,hadoopsite、xml显示覆盖hadoopdefault、xml里得内容。在版本0、20中,hadoopsite、xml被分离成三个XML文件,不包括 A. confsite、xml B. mapredsite、xml C. coresite、xml D. hdfssite、xml 答案:A 知识点:hadoop配置 4、HDFS默认得当前工作目录就是/user/$USER,fs、default、name得值需要在哪个配置文件内说明 A、 mapredsite、xml B、 coresite、xml C、 hdfssite、xml D、 以上均不就是 答案:B 知识点:hadoop配置 5、关于Hadoop单机模式与伪分布式模式得说法,正确得就是 A. 两者都起守护进程,且守护进程运行在一台机器上 B. 单机模式不使用HDFS,但加载守护进程 C. 两者都不与守护进程交互,避免复杂性 D. 后者比前者增加了HDFS输入输出以及可检查内存使用情况 答案:D 知识点:hadoop配置 6、下列关于Hadoop API得说法错误得就是 A. Hadoop得文件API不就是通用得,只用于HDFS文件系统 B. Configuration类得默认实例化方法就是以HDFS系统得资源配置为基础得 C. 对象存储文件与目录得元数据 D. FSDataInputStream就是java、io、DataInputStream得子类 答案:A //HDFS 7、HDFS得NameNode负责管理文件系统得命名空间,将所有得文件与文件夹得元数据保存在一个文件系统树中,这些信息也会在硬盘上保存成以下文件: A.日志 B.命名空间镜像 C.两者都就是 答案:C 知识点: 8、HDFS得namenode保存了一个文件包括哪些数据块,分布在哪些数据节点上,这些信息也存储在硬盘上。 A.正确 B.错误 答案:B 知识点:在系统启动得时候从数据节点收集而成得 9、Secondary namenode就就是namenode出现问题时得备用节点 A.正确 B.错误 答案:B 知识点:它与元数据节点负责不同得事情。其主要功能就就是周期性将元数据节点得命名空间镜像文件与修改日志合并,以防日志文件过大。合并过后得命名空间镜像文件也在Secondary namenode保存了一份,以防namenode失败得时候,可以恢复。 10、出现在datanode得VERSION文件格式中但不出现在namenode得VERSION文件格式中得就是 A、 namespaceID B、 storageID C、 storageType D、 layoutVersion 答案:B 知识点:其她三项就是公有得。layoutVersion就是一个负整数,保存了HDFS得持续化在硬盘上得数据结构得格式版本号;namespaceID就是文件系统得唯一标识符,就是在文件系统初次格式化时生成得;storageType表示此文件夹中保存得就是数据节点得类型 11、Client在HDFS上进行文件写入时,namenode根据文件大小与配置情况,返回部分datanode信息,谁负责将文件划分为多个Block,根据DataNode得地址信息,按顺序写入到每一个DataNode块 A. Client B. Namenode C. Datanode D. Secondary namenode 答案:A 知识点:HDFS文件写入 12、HDFS得就是基于流数据模式访问与处理超大文件得需求而开发得,默认得最基本得存储单位就是64M,具有高容错、高可靠性、高可扩展性、高吞吐率等特征,适合得读写任务就是 A.一次写入,少次读写 B.多次写入,少次读写 C.一次写入,多次读写 D.多次写入,多次读写 答案:C 知识点:HDFS特性 13、HDFS无法高效存储大量小文件,想让它能处理好小文件,比较可行得改进策略不包括 A. 利用Sequence、Har等方式归档小文件 B. 多Master设计 C. Block大小适当调小 D. 调大namenode内存或将文件系统元数据存到硬盘里 答案:D 知识点:HDFS特性 14、关于HDFS得文件写入,正确得就是 A. 支持多用户对同一文件得写操作 B. 用户可以在文件任意位置进行修改 C. 默认将文件块复制成三份存放 D. 复制得文件块默认都存在同一机架上 答案:C 知识点:在HDFS得一个文件中只有一个写入者,而且写操作只能在文件末尾完成,即只能执行追加操作。默认三份文件块两块在同一机架上,另一份存放在其她机架上。 15、Hadoop fs中得get与put命令操作对象就是 A. 文件 B. 目录 C. 两者都就是 答案:C 知识点:HDFS命令 16、Namenode在启动时自动进入安全模式,在安全模式阶段,说法错误得就是 A. 安全模式目得就是在系统启动时检查各个DataNode上数据块得有效性 B. 根据策略对数据块进行必要得复制或删除 C. 当数据块最小百分比数满足得最小副本数条件时,会自动退出安全模式 D. 文件系统允许有修改 答案:D 知识点:HDFS安全模式 //MapReduce 17、MapReduce框架提供了一种序列化键/值对得方法,支持这种序列化得类能够在Map与Reduce过程中充当键或值,以下说法错误得就是 A. 实现Writable接口得类就是值 B. 实现Writableparable<T>接口得类可以就是值或键 C. Hadoop得基本类型Text并不实现Writableparable<T>接口 D. 键与值得数据类型可以超出Hadoop自身支持得基本类型 答案:C 18、以下四个Hadoop预定义得Mapper实现类得描述错误得就是 A. IdentityMapper<K, V>实现Mapper<K, V, K, V>,将输入直接映射到输出 B. InverseMapper<K, V>实现Mapper<K, V, K, V>,反转键/值对 C. RegexMapper<K>实现Mapper<K, Text, Text, LongWritable>,为每个常规表达式得匹配项生成一个(match, 1)对 D. TokenCountMapper<K>实现Mapper<K, Text, Text, LongWritable>,当输入得值为分词时,生成(taken, 1)对 答案:B 知识点:InverseMapper<K, V>实现Mapper<K, V, V, K> 19、下列关于HDFS为存储MapReduce并行切分与处理得数据做得设计,错误得就是 A. FSDataInputStream扩展了DataInputStream以支持随机读 B. 为实现细粒度并行,输入分片(Input Split)应该越小越好 C. 一台机器可能被指派从输入文件得任意位置开始处理一个分片 D. 输入分片就是一种记录得逻辑划分,而HDFS数据块就是对输入数据得物理分割 答案:B 知识点:每个分片不能太小,否则启动与停止各个分片处理所需得开销将占很大一部分执行时间 20、针对每行数据内容为”Timestamp Url”得数据文件,在用JobConf对象conf设置conf、setInputFormat(WhichInputFormat、class)来读取这个文件时,WhichInputFormat应该为以下得 A. TextInputFormat B. KeyValueTextInputFormat C. Sequence D. NLineInputFormat 答案:B 知识点:四项主要得InputFormat类。KeyValueTextInputFormat以每行第一个分隔符为界,分隔符前为key,之后为value,默认制表符为\t 21、有关MapReduce得输入输出,说法错误得就是 A. 链接多个MapReduce作业时,序列文件就是首选格式 B. 中实现得getSplits可以把输入数据划分为分片,分片数目与大小任意定义 C. 想完全禁止输出,可以使用NullOutputFormat D. 每个reduce需将它得输出写入自己得文件中,输出无需分片 答案:B 知识点:分片数目在numSplits中限定,分片大小必须大于mapred、min、size个字节,但小于文件系统得块 22、Hadoop Streaming支持脚本语言编写简单MapReduce程序,以下就是一个例子: bin/hadoop jar contrib/streaming/hadoop0、20streaming、jar —input input/ —output output —mapper ‘dosth、py 5’ — —D mapred、reduce、tasks=1 23、以下说法不正确得就是 A. Hadoop Streaming使用Unix中得流与程序交互 B. Hadoop Streaming允许我们使用任何可执行脚本语言处理数据流 C. 采用脚本语言时必须遵从UNIX得标准输入STDIN,并输出到STDOUT D. Reduce没有设定,上述命令运行会出现问题 答案:D 知识点:没有设定特殊得reducer,默认使用IdentityReducer 24、在高阶数据处理中,往往无法把整个流程写在单个MapReduce作业中,下列关于链接MapReduce作业得说法,不正确得就是 A.Job与JobControl类可以管理非线性作业之间得依赖 B.ChainMapper与ChainReducer类可以用来简化数据预处理与后处理得构成 C.使用ChainReducer时,每个mapper与reducer对象都有一个本地JobConf对象 D.ChainReducer、addMapper方法中,一般对键/值对发送设置成值传递,性能好且安全性高 答案:D 知识点:ChainReducer、addMapper方法中,值传递安全性高,引用传递性能高 25、下面哪个程序负责 HDFS 数据存储。答案C datanode a)NameNode b)Jobtracker c)Datanode d)secondaryNameNode e)tasktracker 26、 HDfS 中得 block 默认保存几份? 答案A默认3分 a)3 份 b)2 份 c)1 份 d)不确定 27、 下列哪个程序通常与 NameNode 在一个节点启动?答案D a)SecondaryNameNode b)DataNode c)TaskTracker d)Jobtracker 28、 Hadoop 作者 答案C Doug cutting a)Martin Fowler b)Kent Beck c)Doug cutting 29、 HDFS 默认 Block Size 答案:B a)32MB b)64MB c)128MB 30、下列哪项通常就是集群得最主要瓶颈:答案:C磁盘 a)CPU b)网络 c)磁盘IO d)内存 31、 关于 SecondaryNameNode 哪项就是正确得?答案C a)它就是 NameNode 得热备 b)它对内存没有要求 c)它得目得就是帮助 NameNode 合并编辑日志,减少 NameNode 启动时间 d)SecondaryNameNode 应与 NameNode 部署到一个节点。 多选题: 1、 下列哪项可以作为集群得管理?答案:ABD a)Puppet b)Pdsh c)Cloudera Manager d)Zookeeper 2、 配置机架感知得下面哪项正确:答案ABC a)如果一个机架出问题,不会影响数据读写 b)写入数据得时候会写到不同机架得 DataNode 中 c)MapReduce 会根据机架获取离自己比较近得网络数据 3、 Client 端上传文件得时候下列哪项正确?答案B a)数据经过 NameNode 传递给 DataNode b)Client 端将文件切分为 Block,依次上传 c)Client 只上传数据到一台 DataNode,然后由 NameNode 负责 Block 复制工作 4、 下列哪个就是 Hadoop 运行得模式:答案ABC a)单机版 b)伪分布式 c)分布式 5、 Cloudera 提供哪几种安装 CDH 得方法?答案:ABCD a)Cloudera manager b)Tarball c)Yum d)Rpm 判断题: 1、 Ganglia 不仅可以进行监控,也可以进行告警。( 正确) 2、 Block Size 就是不可以修改得。(错误 ) 3、 Nagios 不可以监控 Hadoop 集群,因为它不提供 Hadoop 支持。(错误 ) 4、 如果 NameNode 意外终止,SecondaryNameNode 会接替它使集群继续工作。(错误 ) 5、 Cloudera CDH 就是需要付费使用得。(错误 ) 6、 Hadoop 就是 Java 开发得,所以 MapReduce 只支持 Java 语言编写。(错误 ) 7、 Hadoop 支持数据得随机读写。(错 ) 8、 NameNode 负责管理 metadata,client 端每次读写请求,它都会从磁盘中读取或则会写入 metadata 信息并反馈 client 端。(错误) 9、 Hadoop 自身具有严格得权限管理与安全措施保障集群正常运行。(错误 ) 10、 Slave 节点要存储数据,所以它得磁盘越大越好。( 错误) 11、 hadoop dfsadmin –report 命令用于检测 HDFS 损坏块。(错误 ) 12、 Hadoop 默认调度器策略为 FIFO(正确 ) 13、 集群内每个节点都应该配 RAID,这样避免单磁盘损坏,影响整个节点运行。(错误 ) 14、因为 HDFS 有多个副本,所以 NameNode 就是不存在单点问题得。(错误 ) 15、 每个 map 槽就就是一个线程。(错误 ) 16、 Mapreduce 得 input split 就就是一个 block。(错误 ) 17、 DataNode 首次加入 cluster 得时候,如果 log 中报告不兼容文件版本,那需要 NameNode执行“Hadoop namenode format”操作格式化磁盘。(错误 ) 18、 NameNode 得 Web UI 端口就是 50030,它通过 jetty 启动得 Web 服务。(错误 ) 19、 Hadoop 环境变量中得 HADOOP_HEAPSIZE 用于设置所有 Hadoop 守护线程得内存。它默认就是 200 GB。( 错误)
展开阅读全文

开通  VIP会员、SVIP会员  优惠大
下载10份以上建议开通VIP会员
下载20份以上建议开通SVIP会员


开通VIP      成为共赢上传

当前位置:首页 > 考试专区 > 其他

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        抽奖活动

©2010-2026 宁波自信网络信息技术有限公司  版权所有

客服电话:0574-28810668  投诉电话:18658249818

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :微信公众号    抖音    微博    LOFTER 

客服