ImageVerifierCode 换一换
格式:DOCX , 页数:72 ,大小:2.35MB ,
资源ID:3529700      下载积分:16 金币
快捷注册下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

开通VIP
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.zixin.com.cn/docdown/3529700.html】到电脑端继续下载(重复下载【60天内】不扣币)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

开通VIP折扣优惠下载文档

            查看会员权益                  [ 下载后找不到文档?]

填表反馈(24小时):  下载求助     关注领币    退款申请

开具发票请登录PC端进行申请

   平台协调中心        【在线客服】        免费申请共赢上传

权利声明

1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前可先查看【教您几个在下载文档中可以更好的避免被坑】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时联系平台进行协调解决,联系【微信客服】、【QQ客服】,若有其他问题请点击或扫码反馈【服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【版权申诉】”,意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:0574-28810668;投诉电话:18658249818。

注意事项

本文(基于Hadoop数据分析系统设计(毕业设计).docx)为本站上传会员【天****】主动上传,咨信网仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知咨信网(发送邮件至1219186828@qq.com、拔打电话4009-655-100或【 微信客服】、【 QQ客服】),核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载【60天内】不扣币。 服务填表

基于Hadoop数据分析系统设计(毕业设计).docx

1、摘要 随着云时代的来临,大数据也吸引越来越多的关注,企业在日常运营中生成、积累的用户网络行为数据。这些数据是如此庞大,计量单位通常达到了PB、EB甚至是ZB。Hadoop作为一个开源的分布式文件系统和并行计算编程模型得到了广泛的部署和应用。本文将介绍Hadoop完全分布式集群的具体搭建过程与基于Hive的数据分析平台的设计与实现。 关键字 Hadoop,MapReduce,Hive Abstract With the advent of clou

2、d, big data also attract more and more attention, the enterprise of the generation and accumulation in the daily operation of the user network behavior data. The data is so large, the measuring unit is usually achieved the PB, EB, and even the ZB. The Hadoop distributed file system as an open source

3、 and parallel computing programming model has been widely deployed and application. This article introduces Hadoop completely distributed cluster process of concrete structures, and the design and implementation of data analysis platform based on the Hive. key words Hadoop,MapReduce,Hive

4、 目录 第一章 某某企业数据分析系统设计需求分析 4 第二章 HADOOP简介 5 第三章 HADOOP单一部署 8 3.1 Hadoop集群部署拓扑图 8 3.2 安装操作系统Centos 9 3.3 Hadoop基础配置 15 3.4 SSH免密码登录 18 3.5 安装JDK 19 3.6 安装Hadoop 20 3.6.1安装32位Hadoop 20 3.6.2安装64位Hadoop 29 3.7 Hadoop优化 33 3.8 Hive安装与配置 34

5、3.8.1 Hive安装 34 3.8.2 使用MySQL存储Metastore 34 3.8.3 Hive的使用 37 3.9 Hbase安装与配置 38 9.1 Hbase安装 38 9.2 Hbase的使用 40 3.10 集群监控工具Ganglia 44 第四章 HADOOP批量部署 49 4.1 安装操作系统批量部署工具Cobbler 49 4.2 安装Hadoop集群批量部署工具Ambari 55 第五章 使用HADOOP分析网站日志 64 第六章 总结 68 第七章 参考文献 69 致谢 70 第一章 某某企业数据分析系统设计需求分析 某某企业成

6、立于1999年,其运营的门户网站每年产生大概2T的日志信息,为了分析网站的日志,部署了一套Oracle数据库系统,将所有的日志信息都导入Oracle的表中。随着时间的推移,存储在Oracle数据库中的日志系统越来越大,查询的速度变得越来越慢,并经常因为查询的数据量非常大而导致系统死机。日志信息的分析成为了XX企业急需解决的问题,考虑到单机分析的扩展性与成本问题,且XX企业当前有一部分服务器处于闲置状态,最终决定在现有服务器的基础上部署一套分布式的系统来对当前大量的数据进行分析。结合淘宝目前已经部署成功的数据雷达系统,同时由于XX企业预算有限,为了节约资金,决定采用开源的Hadoop来部署公司的

7、数据分析系统。 l 采用Hadoop集群优势: 1. 高可靠性,能够维护多个工作数据副本,确保能够针对失败的节点重新分布处理。 2. 高扩展性,在计算机集簇间分配数据并完成计算,这些集簇可以很容易扩展到数以千计的节点中去。 3. 高效性,以并行的方式工作,通过并行处理加快处理速度。 4. 高容错性,自动保存数据多个副本,并能够自动将失败任务重新分配。 5. 廉价性,框架可以运行在任何普通的PC上。 l 采用Hadoop集群劣势: 1. 采用单master的设计,单master的设计极大地简化了系统的设计和实现,由此带来了机器规模限制和单点失效问题。 2. 编程复杂,学习曲线过

8、于陡峭,让许多人难以深入。 3. 开源性,在广大社区维护不断推进Hadoop的发展的同时,一旦代码出现漏洞并未被发现,而又被有心的人利用,将会对数据的安全造成毁灭性的后果。 4. 缺乏认证,Hadoop并没有对使用Hadoop的权限进行细致的划分。 第二章 Hadoop简介 Hadoop是Apache软件基金会旗下的一个开源分布式计算平台。以Hadoop分布式文件系统和MapReduce为核心的Hadoop为用户提供了系统底层细节透明的分布式基础架构。HDFS的高容错性、高伸缩性等优点允许用户将Hadoop部署在低廉的硬件上,形成分布式系统,MapReduce分布式

9、编程模型允许用户在不了解分布式系统底层细节的情况下开发并行应用程序。所以用户可以利用Hadoop轻松地组织计算机资源,从而搭建自己的分布式计算平台,并且可以充分利用集群的计算和存储能力,完成海量数据的处理。 2.1 Hadoop生态系统 Hadoop已经发展成为包含多个子项目的集合。核心内容是MapReduce和Hadoop分布式文件系统(DHFS)。它也包含了Common、Avro、Chukwa、Hive、Hbase等子项目,他们在核心层的基础上提供了高层服务,为Hadoop的应用推广起到了重要作用。如图2.1所示: 图2.1 Hadoop结构图 Hadoop Core/Comm

10、on 从Hadoop 0.20版本开始,Hadoop 的Core 项目便更名为Common.,它是Hadoop体系最底层的一个模块,为Hadoop各子项目提供各种工具,主要包括FileSystem、PRC和串行化库。 Hive hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的sql查询功能,可以将sql语句转换为MapReduce任务进行运行。 其优点是学习成本低,可以通过类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合数据仓库的统计分析。 Hbase HBase是一个分布式的、面向列

11、的开源数据库,该技术来源于 Fay Chang 所撰写的Google论文“Bigtable:一个结构化数据的分布式存储系统”。就像Bigtable利用了Google文件系统(File System)所提供的分布式数据存储一样,HBase在Hadoop之上提供了类似于Bigtable的能力。HBase是Apache的Hadoop项目的子项目。HBase不同于一般的关系数据库,它是一个适合于非结构化数据存储的数据库。另一个不同的是HBase基于列的而不是基于行的模式。 Avro Avro是doug cutting主持的RPC项目,有点类似Google的protobuf和Facebook的thr

12、ift。是用于数据序列化的系统。提供了丰富的数据结构类型、快速可压缩的二进制数据格式、存储持久性数据的文件集、远程PRC调用以及简单的动态语言集成功能。 MapReduce 实现了MapReduce编程框架,用于大规模数据集的并行运算。能够使编程人员在不理解分布式并行编程概念的情况下也能方便将自己的程序运行在分布式系统上。 HDFS 分布式文件系统,其设计目标包括:检测和快速恢复硬件故障;数据流的访问;简化一致性模型等。 ZooKeeper Zookeeper是Google的Chubby一个开源的实现。它是一个针对大型分布式系统的可靠协调系统,提供的功能包括:配置维护、名字服务、分

13、布式同步、组服务等。ZooKeeper的目标就是封装好复杂易出错的关键服务,将简单易用的接口和性能高效、功能稳定的系统提供给用户。 Pig Pig是SQL-like语言,是在MapReduce上构建的一种高级查询语言,把一些运算编译进MapReduce模型的Map和Reduce中,并且用户可以定义自己的功能。Yahoo网格运算部门开发的又一个克隆Google的项目Sawzall。 Chukwa Chukwa是基于Hadoop的大集群监控系统,是开源的数据搜集系统。通过HDFS来存储数据,并依赖MapReduce 来处理数据。 2.2 Hadoop在互联网的应用 淘宝 淘宝Hado

14、op集群现在超过1700个节点,服务于用于整个阿里巴巴集团各部门,数据来源于各部门产品的线上数据库(Oracle, MySQL)备份,系统日志以及爬虫数据,截止2011年9月,数量总量已经超过17个PB,每天净增长20T左右。每天在Hadoop集群运行的MapReduce任务有超过4万(有时会超过6万),其中大部分任务是每天定期执行的统计任务,例如数据魔方、量子统计、推荐系统、排行榜等等。这些任务一般在凌晨1点左右开始执行,3-4个小时内全部完成。每天读数据在2PB左右,写数据在1PB左右。 百度 度对海量数据处理的要求是比较高的,要在线下对数据进行分析,还要在规定的时间内处理完并反馈到平

15、台上。百度在互联网领域的平台需求下所示,这里就需要通过性能较好的云平台进行处理了,Hadoop就是很好的选择。在百度,Hadoop主要应用于以下几个方面: l 日志的存储和统计; l 网页数据的分析和挖掘; l 商业分析,如用户的行为和广告关注度等; l 在线数据的反馈,及时得到在线广告的点击情况; l 用户网页的聚类,分析用户的推荐度及用户之间的关联度。 Facebook Facebook作为全球知名的社交网站,拥有超过3亿的活跃用户,其中约有3千万用户至少每天更新一次自己的状态;用户每月总共上传10亿余张照片、1千万个视频;以及每周共享10亿条内容,包括日志、链接、新闻、微博

16、等。因此Facebook需要存储和处理的数据量是非常巨大的,每天新增加4TB压缩后的数据,扫描135TB大小的数据,在集群上执行Hive任务超过7500次,每小时需要进行8万次计算,所以高性能的云平台对Facebook来说是非常重要的,而Facebook主要将Hadoop平台用于日志处理、推荐系统和数据仓库等方面。 第三章 Hadoop单一部署 3.1 Hadoop集群部署拓扑图 3.1Hadoop集群部署拓图 集群中包括4个节点:1个master,3个Salve,节点之间局域网连接,可以相互ping通,节点IP地址分布如下: 机器名称 IP地址 网关 系统 19

17、2.168.93.210 192.168.93.254 CentOS-6.5-x86_64 192.168.93.211 192.168.93.254 CentOS-6.5-x86_64 192.168.93.212 192.168.93.254 CentOS-6.5-x86_64 192.168.93.213 192.168.93.254 CentOS-6.5-i386 3.2 安装操作系统Centos 1) 选择第一项,按Enter键下一步,如图3.2所示。 图3.2 安装操作系统 2) 选择Skip,跳过光盘介

18、质检测,如图3.3所示。 图3.3 光盘介质检测 3) 开始Centos的安装,选择OK,如图3.4所示。 图3.4 操作系统安装欢迎界面 4) 选择安装时的语言,这里我们选择英语,选择OK,下一步,如图3.5所示。 图3.5 安装向导语言选择界面 5) 键盘布局使用US,如图3.6所示。 图3.6 选择键盘语言界面 6) 重新读取磁盘,如图3.7所示。 图3.7 重新读取磁盘界面 7) 这里选择Shanghai时区,如图3.8所示。 图3.8 选择UTC时区界面 8

19、) 填入管理员Root密码后,选择OK,下一步,如图3.9所示。 图3.9 填写管理员密码界面 9) 因为是全新安装,我们选择替换已有安装系统,选择OK,下一步,如图3.10所示。 图3.10 选择安装系统分区界面 10) 确认写入磁盘,下一步,如图3.11所示。 图3.11 确认格式化磁盘界面 11) 开始写入系统文件,100%即为完成写系统操作,如图3.12所示。 图3.12 操作系统安装界面 12) 重启,进入系统,如图3.13所示。 图3.13 重启系统界面

20、 3.3 Hadoop基础配置 1) 配置master的IP [root@localhost ~]# vi /etc/sysconfig/network-scripts/ifcfg-eth0 DEVICE=eth0 HWADDR=00:0C:29:75:77:A2 TYPE=Ethernet UUID=bb54feab-d287-4c56-844d-63632511651d ONBOOT=yes NM_CONTROLLED=yes BOOTPROTO=static IPADDR=192.168.93.201 NETMASK=255.255.255.0 GATE

21、WAY=192.168.93.254 DNS1=192.168.92.2 DNS2=192.168.92.3 2) 配置master的主机名 [root@localhost ~]# vi /etc/sysconfig/network NETWORKING=yes HOSTNAME= 3) 重启系统,使配置生效 [root@localhost ~]# reboot 4) 其它三台主机根据规划的IP进行设置 5) 设置master主机的IP地址: [root@master ~]# vim /etc/hosts 192.168.93.201

22、 192.168.93.202 192.168.93.203 192.168.93.203 6) 复制hosts文件本其它的节点: [hduser@master ~]$ scp -r /etc/hosts hduser@: /etc/hosts [hduser@master ~]$ scp -r /etc/hosts hduser@: /etc/hosts [hduser@master ~]$ scp -r /etc/hosts hduser@: /etc/hosts 7) master Ping测试: [root@master ~]# ping -c 1

23、 [root@master ~]# ping -c 1 8) Hadoop001 Ping测试: [root@hadoop001 ~]# ping -c 1 [root@hadoop001 ~]# ping -c 1 9) Hadoop002 Ping测试: [root@hadoop002 ~]# ping -c 1 [root@hadoop002 ~]# ping -c 1 10) Hadoop003 Ping测试: [root@hadoop003 ~]# ping -c 1 [root@hadoop003 ~]# ping -c 1 11)

24、 分别添加集群用户: [root@master ~]# useradd hduser [root@master ~]# passwd hduser Changing password for user hduser. New password: Retype new password: passwd: all authentication tokens updated successfully. [root@hadoop001 ~]# useradd hduser [root@hadoop001 ~]# passwd hduser Changing password fo

25、r user hduser. New password: Retype new password: passwd: all authentication tokens updated successfully. [root@hadoop002 ~]# useradd hduser [root@hadoop002 ~]# passwd hduser Changing password for user hduser. New password: Retype new password: passwd: all authentication tokens updated

26、successfully. 12) JDK下载地址。 13) Hadoop下载地址: 14) 上传Hadoop和JDK文件到集群主机,如图3.14所示: 图3.14 使用xftp上传界面 3.4 SSH免密码登录 1) 产生rsa密钥: [hduser@master ~]$ ssh-keygen -t rsa [hduser@master ~]$ cat .ssh/id_rsa.pub >.ssh/authorized_keys [hduser@ master ~]$ chmod 600 .ssh/authorized_ke

27、ys 2) Slave主机也与Master类似产生rsa密钥。也lave主机nfig atd off perty> 2013 181818181818181818181818181818181818181818181818181818181818181818181818181818181818181818181818181818181818181818181818181818181818181818181818181818181818181818181818181818181818181818181818 3) master上导入hadoop001与hadoop002上的公钥: [h

28、duser@master ~]$ ssh hduser@ cat ~/.ssh/authorized_keys >> .ssh/authorized_keys [hduser@master ~]$ ssh hduser@ cat ~/.ssh/authorized_keys >> .ssh/authorized_keys 4) hadoop001导入master的公钥: [hduser@hadoop001 ~]$ ssh hduser@ cat ~/.ssh/id_rsa.pub >> .ssh/authorized_keys 5) hadoop002导入master的

29、公钥: [hduser@hadoop002 ~]$ ssh hduser@ cat ~/.ssh/id_rsa.pub >> .ssh/authorized_keys 3.5 安装JDK 1) master上安装JDK: [root@master ~]# mkdir /usr/java tar zxvf jdk-7u45-linux-x64.tar.gz -C /usr/java/ [root@master ~]# tar zxvf jdk-7u45-linux-i586.tar.gz -C /usr/java/ [root@master ~]# vim /etc/prof

30、ile JAVA_HOME=/usr/java/jdk1.7.0_45 JRE_HOME=/usr/java/jdk1.7.0_45/jre PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib export JAVA_HOME JRE_HOME PATH CLASSPATH [root@master ~]# source /etc/profile [root@master ~]# java -vers

31、ion java version "1.7.0_45" Java(TM) SE Runtime Environment (build 1.7.0_45-b18) Java HotSpot(TM) Client VM (build 24.45-b08, mixed mode) 2) 其它三台主机也要部署JDK 3.6 安装Hadoop 3.6.1安装32位Hadoop 1) 配置Hadoop环境变量: [hduser@master hadoop-2.2.0]$ vim etc/hadoop/hadoop-env.sh export JAVA_

32、HOME=/usr/java/jdk1.7.0_45 [hduser@master hadoop-2.2.0]$ vim etc/hadoop/yarn-env.sh JAVA_HOME=/usr/java/jdk1.7.0_45/ 2) 解压Hadoop文件并建立相应的目录: [hduser@master ~]$ tar zxvf hadoop-2.2.0.tar.gz [hduser@master ~]$ mkdir -p dfs/{name,data} [hduser@master ~]$ mkdir temp 3) 设定Hadoop集群中Slaves角色主机:

33、 [hduser@master ~]$ vim hadoop-2.2.0/etc/hadoop/slaves 4) 配置core-site.xml文件: [hduser@master ~]$ vim hadoop-2.2.0/etc/hadoop/core-site.xml fs.defaultFS hdfs://:9000

34、 io.file.buffer.size 131072 hadoop.tmp.dir file:/home/hduser/temp

35、 hadoop.proxyuser.hduser.hosts * hadoop.proxyuser.hduser.groups *

36、 5) 配置hdfs-site.xml文件: [hduser@master ~]$ vim hadoop-2.2.0/etc/hadoop/hdfs-site.xml dfs.namenode.secondary.http-address :9001 dfs.namen

37、ode.name.dir file:/home/hduser/dfs/name dfs.datanode.data.dir file:/home/hduser/dfs/data

38、 dfs.replication 3 dfs.webhdfs.enabled true 5) 配置mapr

39、ed-site.xml文件: [hduser@master ~]$ vim hadoop-2.2.0/etc/hadoop/mapred-site.xml mapreduce.framework.name yarn

40、rty> mapreduce.jobhistory.address :10020 mapreduce.jobhistory.webapp.address :19888

41、 6) 配置yarn-site.xml文件: [hduser@master ~]$ vim hadoop-2.2.0/etc/hadoop/yarn-site.xml yarn.nodemanager.aux-services<

42、/name> mapreduce_shuffle yarn.nodemanager.aux-services.mapreduce.shuffle.class org.apache.hadoop.mapred.ShuffleHandler

43、 yarn.resourcemanager.address :8032 yarn.resourcemanager.scheduler.address :8030

44、ty> yarn.resourcemanager.resource-tracker.address :8031 ………… 续上 yarn.resourcemanager.admin.address :8033

45、 yarn.resourcemanager.webapp.address :8088 7) 将配置好的Hadoop文件复制到其它节点: [hduser@master ~]$ scp -r hadoop-2.2.0/ hduser@:~ [hduser@master ~]$ scp -r hadoop-

46、2.2.0/ hduser@:~ [hduser@master ~]$ scp -r hadoop-2.2.0/ hduser@:~ 8) 格式化namenode: [hduser@master ~]$ ./hadoop-2.2.0/bin/hdfs namenode -format 9) 启动hdfs: [hduser@master hadoop-2.2.0]$ ./sbin/start-dfs.sh 10) 启动yarn: [hduser@master hadoop-2.2.0]$ ./sbin/start-yarn.sh 11)

47、 验证服务启动情况: [hduser@master ~]$ jps 3454 NameNode 4003 Jps 3622 SecondaryNameNode 3758 ResourceManager [hduser@hadoop001 ~]$ jps 2190 NodeManager 2090 DataNode 2288 Jps [hduser@hadoop002 ~]$ jps 2167 Jps 2069 NodeManager 1969 DataNode [hduser@hadoop003 ~]$ jps 1853 Jps 1761 NodeManager 1661 DataNode 12) 查看集群状态: [hduser@master hadoop-2.2.0]$ ./

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        抽奖活动

©2010-2026 宁波自信网络信息技术有限公司  版权所有

客服电话:0574-28810668  投诉电话:18658249818

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :微信公众号    抖音    微博    LOFTER 

客服