收藏 分销(赏)

2023年Hadoop试题试题库完整.docx

上传人:丰**** 文档编号:10036103 上传时间:2025-04-18 格式:DOCX 页数:27 大小:32.80KB
下载 相关 举报
2023年Hadoop试题试题库完整.docx_第1页
第1页 / 共27页
2023年Hadoop试题试题库完整.docx_第2页
第2页 / 共27页
点击查看更多>>
资源描述
1. 如下哪一项不属于Hadoop可以运行 模式___C___。 A. 单机(当地)模式 B. 伪分布式模式 C. 互联模式 D. 分布式模式 2. Hadoop作者是下面哪一位__B。 A. Martin Fowler B. Doug cutting C. Kent Beck D. Grace Hopper 3. 下列哪个程序一般与NameNode在同一种节点启动__D___。 A. TaskTracker B. DataNode C. SecondaryNameNode D. Jobtracker 4. HDFS 默认 Block Size 大小是 ___B___。 A. 32MB B. 64MB C. 128MB D. 256M 5. 下列哪项一般是集群最重要瓶颈——C__。 A. CPU B. 网络 C. 磁盘IO D. 内存 6. 下列有关MapReduce说法不对的 是C_。 A. MapReduce是一种计算框架 B. MapReduce来源于google 学术论文 C. MapReduce程序只能用java语言编写 D. MapReduce隐藏了并行计算 细节,以便使用 8. HDFS是基于流数据模式访问和处理超大文献需求而开发,具有高容错、高可靠性、高可扩展性、高吞吐率等特性,适合 读写任务是-D____o A. 一次写入,少次读 B. 一再写入,少次读 C. 一再写入,一再读 D. 一次写入,一再读 9. HBase依托__A存储底层数据。 A. HDFS B. Hadoop C. Memory D. MapReduce 10. HBase依赖___D___提供强大计算能力。 A. Zookeeper B. Chubby C. RPC D. MapReduce 11. HBase依赖___A___提供消息通信机制 A. Zookeeper B. Chubby C. RPC D. Socket 12. 下面与HDFS类似框架是___C____? A. NTFS B. FAT32 C. GFS D. EXT3 13, 有关SecondaryNameNode下面哪项是对的 —C—。 A, 它是NameNode 热备 B. 它对内存没有规定 C, 它目 是协助NameNode合并编辑日志,减少NameNode启动时间 D. SecondaryNameNode 应与 NameNode 布署到一种节点 14. 大数据特点不波及下面哪一项___D___。 A. 巨大数据量 B. 多构造化数据 C. 增长速度快 D. 价值密度高 HBase测试题 1. HBase来源于哪一项? C A The Google File System B MapReduce C BigTable D Chubby 2. 下面对HBase描述哪些是对的? B、C、D A不是开源 B是面对列 C是分布式 D是一种NoSQL数据库 3. HBase依托()存储底层数据A A HDFS B Hadoop C Memory D MapReduce 4. HBase依赖()提供消息通信机制A A Zookeeper B Chubby C RPC D Socket 5. HBase依赖()提供强大 计算能力D A Zookeeper B Chubby C RPC D MapReduce 6. MapReduce与HBase 关系,哪些描述是对的? B、C A两者不可或缺,MapReduce是HBas。可以正常运行 保证 B两者不是强关联关系,没有MapReduce,HBase可以正常运行 C MapReduce可以直接访问HBase D它们之间没有任何关系 7. 下面哪些选项对的描述了 HBase 特性? A、B、C、D A高可靠性 B高性能 C面对列 D可伸缩 8. 下面与Zookeeper类似 框架是? D A Protobuf B Java C Kafka D Chubby 9. 下面与HDFS类似 框架是? C A NTFS B FAT32 C GFS D EXT3 10. 下面哪些概念是HBase框架中使用? A、C A HDFS B GridFS C Zookeeper D EXT3 第二部分:HBase关键知识点 11. LSM含义是? A A日志构造合并树 B二叉树 C平衡二叉树 D基于日志构造合并树 12. 下面对LSM构造描述对的是? A、C A次序存储 B直接写硬盘 C需要将数据Flush到磁盘 D是一种搜索平衡树 13. LSM更能保证哪种操作 性能? B A读 B写 C随机读 D合并 14. LSM 读操作和写操作是独立? A A是。 B否。 C LSM并不辨别读和写 D LSM中读写是同一种操作 15. LSM构造 数据首先存储在()。B A硬盘上 B内存中 C磁盘阵列中 D闪存中 16 HFile数据格式中 Data字段用于()。A A存储实际KeyValue数据 B存储数据起点 C指定字段长度 D存储数据块起点 17 HFile数据格式中Metaindex字段用于()。D A Meta块长度 B Meta块结束点 C Meta块数据内容 D Meta块起始点 18 HFile数据格式中Magic字段用于()。A A存储随机数,防止数据损坏 B存储数据起点 C存储数据块起点 D指定字段长度 19 HFile数据格式中KeyValue数据格式,下列选项描述对的 是()°A、D A是byte[]数组 B没有固定构造 C数据大小是定长 D有固定构造 20 HFile数据格式中KeyValue数据格式中Value部分是()。C A拥有复杂构造字符串 B字符串 C二进制数据 D压缩数据 第三部分:HBase高级应用简介 31 HBase中 批量加载底层使用()实现。A A MapReduce B Hive C Coprocessor D Bloom Filter 32. HBase性能优化波及下面 哪些选项? A、B、C、D A读优化 B写优化 C配置优化 D JVM优化 33. Rowkey设计原则,下列哪些选项描述是对的?A、B、C A尽量保证越短越好 B可以使用中文 C可以使用字符串 D自身是无序 34. HBase构建二级索引 实现方式有哪些? A、B A MapReduce B Coprocessor C Bloom Filter D Filter 35, 有关HBase 二级索引 描述,哪些是对的?A、B A关键是倒排表 B二级索引概念是对应Rowkey这个“一级”索引 C二级索引使用平衡二叉树 D二级索引使用LSM构造 36, 下列有关Bloom Filter 描述对的是? A、C A是一种很长二进制向量和一系列随机映射函数 B没有误算率 C有一定误算率 D可以在Bloom Filter中删除元素 第四部分:HBase安装、布署、启动 37, HBase官方版本可以安装在什么操作系统上? A、B、C A CentOS B Ubuntu C RedHat D Windows 38. HBase虚拟分布式模式需要()个节点? A A 1 B 2 C 3 D至少3个 39. HBase分布式模式最佳需要()个节点? C A 1 B 2 C 3 D 至少 有关hadoop 选择题 1、Doug Cutting所创立 项目 名称都受到其家人 启发,如下项目不是由他 创立项目是 A. Hadoop B. Nutch C. Lucene D. Solr 答案:D 2、配置Hadoop时,JAVA_HOME波及在哪一种配置文献中 A. hadoop-default.xml B. hadoop-env.sh C. hadoop-site.xml D. configuration.xsl 答案:B 知识点:hadoop配置 3、Hadoop 配置文献中,hadoop-site.xm l 显示覆盖 hadoop-default.xml 里 内 容。在版本0.2 0中,hadoop-site.xm l被分离成三个XML文献,不波及 A. conf-site.xml B. mapred-site.xml C. core-site.xml D. hdfs-site.xml 答案:A 知识点:hadoop配置 4、HDFS默认 目前工作目录是/user/$USER,fs.default.name 值需要在哪个配置文献内阐明 A. mapred-site.xml B. core-site.xml C. hdfs-site.xml D. 以上均不是 答案:B 知识点:hadoop配置 5、有关Hadoop单机模式和伪分布式模式说法,对的是 A. 两者都起守护进程,且守护进程运行在一台机器上 B. 单机模式不使用HDFS,但加载守护进程 C. 两者都不与守护进程交互,防止复杂性 D. 后者比前者增长了 HDFS输入输出以及可检查内存使用状况 答案:D 知识点:hadoop配置 6、下列有关Hadoop API 说法错误 是 A. Hadoop 文献API不是通用,只用于HDFS文献系统 B. Configuration类 默认实例化措施是以HDFS系统 资源配置为基础 C. FileStatus对象存储文献和目录 元数据 D. FSDataInputStream是 java.io.DataInputStream 子类答案:A //HDFS 7、HDFS NameNode负责管理文献系统 命名空间,将所有 文献和文献夹元数据保留在一种文献系统树中,这些信息也会在硬盘上保留成如下文献: A. 日志 B. 命名空间镜像 C. 两者都是 答案:C 知识点: 8、HDFS namenode保留了一种文献波及哪些数据块,分布在哪些数据节点上,这些信息也存储在硬盘上。 A. 对的 B. 错误 答案:B 知识点:在系统启动时候从数据节点搜集而成 9、Secondary namenode就是namenode出现问题时 备用节点 A. 对的 B. 错误答案:B 知识点:它和元数据节点负责不一样 事情。其重要功能就是周期性将元数据节点 命名空间镜像文献和修改日志合并,以防日志文献过大。合并过后 命名空间镜像文献也在Secondary namenode保留了一份,以防namenode失败 时候,可以恢复。 10、出目前datanode VERSION文献格式中但不出目前namenode VERSION文献格式中是 A. namespacelD B. storagelD C. storageType D. layoutVersion 答案:B 知识点:其他三项是公有°layoutVersion是一种负整数,保留了 HDFS 持续化在硬盘上数据构造格式版本号;namespacelD是文献系统唯一标识符,是在文献系统初次格式化时生成;storageType体现此文献夹中保留 是数据节点类型 11、Client在HDFS上进行文献写入时,namenode根据文献大小和配置状况,返 回部分datanode信息,谁负责将文献划分为多种Block,根据DataNode地址信息,按次序写入到每一种DataNode块 A. Client B. Namenode C. Datanode D. Secondary namenode 答案:A 知识点:HDFS文献写入 12、HDFS 是基于流数据模式访问和处理超大文献 需求而开发,默认 最基本存储单位是64M,具有高容错、高可靠性、高可扩展性、高吞吐率等特性,适合读写任务是 A. 一次写入,少次读写 B. 一再写入,少次读写 C. 一次写入,一再读写 D. 一再写入,一再读写 答案:C 知识点:HDFS特性 13、HDFS无法高效存储大量小文献,想让它能处理好小文献,比较可行 改善方略不波及 A. 运用SequenceFile、MapFile、Har等方式归档小文献 B. 多Master设计 C. Block大小合适调小 D. 调大namenode内存或将文献系统元数据存到硬盘里 答案:D 知识点:HDFS特性 14、有关HDFS文献写入,对的是 A. 支持多顾客对同一文献写操作 B. 顾客可以在文献任意位置进行修改 C. 默认将文献块复制成三份寄存 D. 复制文献块默认都存在同一机架上 答案:C 知识点:在HDFS 一种文献中只有一种写入者,并且写操作只能在文献末尾完毕,即只能执行追加操作。默认三份文献块两块在同一机架上,另一份寄存在其他机架上。 15、Hadoop fs中 -get和-put命令操作对象是 A. 文献 B. 目录 C. 两者都是答案:C 知识点:HDFS命令 16、Namenode在启动时自动进入安全模式,在安全模式阶段,说法错误 是 A. 安全模式目 是在系统启动时检查各个DataNode 上数据块 有效性 B. 根据方略对数据块进行必要 复制或删除 C. 当数据块最小比例数满足 最小副本数条件时,会自动退出安全模式 D. 文献系统容许有修改 答案:D 知识点:HDFS安全模式 //MapReduce 17、MapReduce框架提供了一种序列化键/值对的措施,支持这种序列化 类可以在Map和Reduce过程中充当键或值,如下说法错误 是 A. 实现Writable接 类是值 B. 实现WritableComparable<T>接 类可以是值或键 C. Hadoop 基本类型 Text 并不实现 WritableComparable<T>接 D. 键和值 数据类型可以超过Hadoop自身支持 基本类型答案:C 18、如下四个Hadoop预定义 Mapper实现类描述错误是 A. IdentityMapper<K, V>实现 Mapper<K, V, K, V>,将输入直接映射到输出 B. InverseMapper<K, V>实现 Mapper<K, V, K, V>,反转键/值对 C. RegexMapper<K>实现 Mapper<K, Text, Text, LongWritable>,为每个常规体现式 匹配项生成一种(match, 1)对 D. TokenCountMapper<K>实现 Mapper<K, Text, Text, LongWritable>,当输入 值为分词时,生成(taken, 1)对 答案:B 知识点:InverseMapper<K, V>实现 Mapper<K, V, V, K> 19、下列有关HDFS为存储MapReduce并行切分和处理 数据做 设计,错误是 A. FSDataInputStream 扩展了 DataInputStream 以支持随机读 B. 为实现细粒度并行,输入分片(Input Split)应当越小越好 C. 一台机器也许被指派从输入文献任意位置开始处理一种分片 D. 输入分片是一种记录 逻辑划分,而HDFS数据块是对输入数据 物理分割答案:B 知识点:每个分片不能太小,否则启动与停止各个分片处理所需 开销将占很大一部分执行时间 20、针对每行数据内容为"Timestamp Url” 数据文献,在用JobConf对象conf设置 conf.setlnputFormat(WhichlnputFormat.class)来读取这个文献时,WhichInputFormat 应当为如下 A. TextInputFormat B. KeyValueTextInputFormat C. SequenceFileInputFormat D. NLineInputFormat 答案:B 知识点:四项重要InputFormat类。KeyValueTextInputFormat以每行第一种 分隔符为界,分隔符前为key,之后为value,默认制表符为\t 21、有关MapReduce 输入输出,说法错误是 A. 链接多种MapReduce作业时,序列文献是首选格式 B. FileInputFormat中实现 getSplits ()可以把输入数据划分为分片,分片数目和大小任意定义 C. 想完全严禁输出,可以使用NullOutputFormat D. 每个reduce需将它 输出写入自己 文献中,输出无需分片 答案:B 知识点:分片数目在numSplits中限定,分片大小必须不不大于 个字节,但不不不大于文献系统块 22、Hadoop Streaming支持脚本语言编写简朴MapReduce程序,如下是一种例 子: — input input/filename —output output —mapper ‘dosth.py 5’ — file dosth.py —D mapred.reduce.tasks=1 23、如下说法不对的是 A. Hadoop Streaming使用Unix中 流与程序交互 B. Hadoop Streaming容许我们使用任何可执行脚本语言处理数据流 C. 采用脚本语言时必须遵从UNIX 原则输入STDIN,并输出到STDOUT D. Reduce没有设定,上述命令运行会出现问题 答案:D 知识点:没有设定特殊reducer,默认使用IdentityReducer 24、在高阶数据处理中,往往无法把整个流程写在单个MapReduce作业中,下列 有关链接MapReduce作业 说法,不对的 是 A. Job和JobControl类可以管理非线性作业之间 依赖 B. ChainMapper和ChainReducer类可以用来简化数据预处理和后处理 构成 C. 使用ChainReducer时,每个mapper和reducer对象均有一种当地JobConf 对象 D. ChainReducer.addMapper()措施中,一般对键/值对发送设置成值传递,性能 好且安全性高 答案:D 知识点:ChainReducer.addMapper()措施中,值传递安全性高,引用传递性能高 25、下面哪个程序负责HDFS数据存储。答案C datanode a) NameNode b) Jobtracker c) Datanode d) secondaryNameNode e) tasktracker 26. HDfS中 block默认保留几份?答案A默认3分 a) 3份 b) 2 份 c) 1份 d) 不确定 27. 下列哪个程序一般与NameNode在一种节点启动?答案D a) SecondaryNameNode b) DataNode c) TaskTracker d) Jobtracker 28. Hadoop 作者答案 C Doug cutting a) Martin Fowler b) Kent Beck c) Doug cutting 29. HDFS 默认 Block Size 答案:B a) 32MB b) 64MB c) 128MB 30. 下列哪项一般是集群最重要瓶颈:答案:C磁盘 a) CPU b) 网络 c)磁盘IO d) 内存 31. 有关SecondaryNameNode哪项是对的?答案C a) 它是NameNode 热备 b) 它对内存没有规定 c) 它 目 是协助NameNode合并编辑日志,减少NameNode启动时间 d) SecondaryNameNode 应与 NameNode 布署到一种节点。 多选题: 1. 下列哪项可以作为集群管理?答案:ABD a) Puppet b) Pdsh c) Cloudera Manager d) Zookeeper 2. 配置机架感知下面哪项对的:答案ABC a) 假如一种机架出问题,不会影响数据读写 2写入数据 时候会写到不一样机架 DataNode中 c)MapReduce会根据机架获取离自己比较近 网络数据 3. Client端上传文献 时候下列哪项对的?答案B a)数据通过NameNode传递给DataNode b)Client端将文献切分为Block,依次上传 c)Client只上传数据到一台DataNode,然后由NameNode负责Block复制工 作 4. 下列哪个是Hadoop运行 模式:答案ABC a)单机版 b)伪分布式 c)分布式 5. Cloudera提供哪几种安装CDH 措施?答案:ABCD a)Cloudera manager b)Tarball c)Yum d)Rpm 判断题: 1. Ganglia不仅可以进行监控,也可以进行告警。(对的) 2. Block Size是不可以修改。(错误) 3. Nagios不可以监控Hadoop集群,由于它不提供Hadoop支持。(错误) 4. 假如NameNode意外终止,SecondaryNameNode会接替它使集群继续工作。 (错误) 5. Cloudera CDH是需要付费使用。(错误) 6. Hadoop是Java开发,因此MapReduce只支持Java语言编写。(错误) 7. Hadoop支持数据随机读写。(错) 8. NameNode负责管理metadata,client端每次读写祈求,它都会从磁盘中读取或则会写入metadata信息并反馈client端。(错误) 9. Hadoop自身具有严格权限管理和安全措施保障集群正常运行。(错误) 10. Slave节点要存储数据,因此它 磁盘越大越好。(错误) 11. hadoop dfsadmin report命令用于检测HDFS损坏块。(错误) 12. Hadoop默认调度器方略为FIFO (对的) 13. 集群内每个节点都应当配RAID,这样防止单磁盘损坏,影响整个节点运行。(错误) 14. 由于HDFS有多种副本,因此NameNode是不存在单点问题。(错误) 15. 每个map槽就是一种线程。(错误) 16. Mapreduce input split 就是一种 block。(错误) 17. DataNode初次加入cluster 时候,假如log中汇报不兼容文献版本,那需要NameNode执行“Hadoop namenode -format”操作格式化磁盘。(错误) 18. NameNode Web UI 端是 530,它通过 jetty 启动 Web 服务。(错误 ) 19. Hadoop环境变量中 HADOOP_HEAPSIZE用于设置所有Hadoop守护线程内存。它默认是2 GB (错误)
展开阅读全文

开通  VIP会员、SVIP会员  优惠大
下载10份以上建议开通VIP会员
下载20份以上建议开通SVIP会员


开通VIP      成为共赢上传
相似文档                                   自信AI助手自信AI助手

当前位置:首页 > 考试专区 > 其他

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        抽奖活动

©2010-2025 宁波自信网络信息技术有限公司  版权所有

客服电话:4009-655-100  投诉/维权电话:18658249818

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :微信公众号    抖音    微博    LOFTER 

客服