ImageVerifierCode 换一换
格式:DOCX , 页数:12 ,大小:1.09MB ,
资源ID:552207      下载积分:6 金币
快捷注册下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

开通VIP
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.zixin.com.cn/docdown/552207.html】到电脑端继续下载(重复下载【60天内】不扣币)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

开通VIP折扣优惠下载文档

            查看会员权益                  [ 下载后找不到文档?]

填表反馈(24小时):  下载求助     关注领币    退款申请

开具发票请登录PC端进行申请

   平台协调中心        【在线客服】        免费申请共赢上传

权利声明

1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前可先查看【教您几个在下载文档中可以更好的避免被坑】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时联系平台进行协调解决,联系【微信客服】、【QQ客服】,若有其他问题请点击或扫码反馈【服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【版权申诉】”,意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:0574-28810668;投诉电话:18658249818。

注意事项

本文(Hadoop云计算实验报告.docx)为本站上传会员【Fis****915】主动上传,咨信网仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知咨信网(发送邮件至1219186828@qq.com、拔打电话4009-655-100或【 微信客服】、【 QQ客服】),核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载【60天内】不扣币。 服务填表

Hadoop云计算实验报告.docx

1、 Hadoop云计算实验报告 Hadoop云计算实验报告 1 实验目的 在虚拟机Ubuntu上安装Hadoop单机模式和集群; 编写一个用Hadoop处理数据的程序,在单机和集群上运行程序。 2 实验环境 虚拟机:VMware 9 操作系统:ubuntu-12.04-server-x64(服务器版),ubuntu-14.10-desktop-amd64(桌面版) Hadoop版本:hadoop 1.2.1 Jdk版本:jdk-7u80-linux-x64 Eclipse版本:ecli

2、pse-jee-luna-SR2-linux-gtk-x86_64 Hadoop集群:一台namenode主机master,一台datanode主机salve, master主机IP为10.5.110.223,slave主机IP为10.5.110.207。 3 实验设计说明 3.1 主要设计思路 在ubuntu操作系统下,安装必要软件和环境搭建,使用eclipse编写程序代码。实现大数据的统计。本次实验是统计软件代理系统操作人员处理的信息量,即每个操作人员出现的次数。程序设计完成后,在集成环境下运行该程序并查看结果。 3.2 算法设计 该算法首先将输入文件都

3、包含进来,然后交由map程序处理,map程序将输入读入后切出其中的用户名,并标记它的数目为1,形成的形式,然后交由reduce处理,reduce将相同key值(也就是word)的value值收集起来,形成的形式,之后再将这些1值加起来,即为用户名出现的个数,最后将这个对以TextOutputFormat的形式输出到HDFS中。 3.3 程序说明 1) UserNameCountMap类继承了org.apache.hadoop.mapreduce.Mapper,4个泛型类型分别是map函数输入key的类型,输入va

4、lue的类型,输出key的类型,输出value的类型。 2) UserNameCountReduce类继承了org.apache.hadoop.mapreduce.Reducer,4个泛型类型含义与map类相同。 3) main函数通过addInputPath将数据文件引入该类,在通过setOutputPath将生成结果转为一个文件,实现生成结果,即统计结果的查看。 FileInputFormat.addInputPath(job, new Path(args[0])); FileOutpu

5、tFormat.setOutputPath(job, new Path(args[1])); 程序具体代码如附件中源程序。 4 实验过程 4.1 安装实验环境 4.1.1 安装ubuntu操作系统 1) 打开VMware,在Home tab中单击“Create a New Virtual Machine”, 2) 选择custom,选择虚拟硬件版本Workstation9.0,选择ios文件,next, 3) 录入目标操作系统信息,包括Full name、Uer name和Password, next, 4) 选择默认的选项,一般不做更改,最后确认信息,Finish, 5

6、) 安装成功后,会看到如下画面, 4.1.2 安装配置Samba 安装samba主要为了实现与windows操作系统的通讯,由于server版本的ubuntu没有自带图形操作界面,所以下载资料等操作不太方便,这也是安装samba的目的之一。 1) 安装samba,输入如下命令: 2) 安装vim 3) 创建共享目录,并修改权限 4) 配置samba。修改samba的配置文件/etc/samba/smb.conf ,将security=share,并在文件的末尾追加如下内容, 5) 测试。在windows实机中,通过ip访问ubuntu虚拟机,可以见到sha

7、re文件夹 4.1.3 安装配置JDK 首先,下载java开发工具包JDK。在本次试验中,我们下载的版本是jdk-7u80-linux-x64.gz。 解压安装到/usr/lib/jvm/目录下,更名为java-7-sun。 配置环境变量/etc/environment, 使配置生效 测试安装配置结果 4.1.4 在单节点(伪分布式)环境下运行HADOOP 1) 添加Hadoop用户并赋予sudo权限 2) 安装配置SSH 切换至hadoop用户, 配置密钥,使得hadoop用户能够无须输入密码,通过SSH访问localhost, 测试结果:

8、 3) 安装配置Hadoop 首先下载Hadoop,解压缩到/opt/hadoop目录下, 本次试验中我们下载的版本是hadoop-1.2.1-bin.tar.gz,更改目录名称为hadoop。 修改与hadoop相关的配置文件(在/opt/hadoop/conf目录下),分别是core-site.xml, hadoop-env.sh, hdsf-site.xml, mapred-site.xml。在此不一一列举。 4) 运行Hadoop 首先格式化HDFS, 启动单节点集群, 通过jps查看, master slave 停止单节点集群, 4.1

9、5 在多节点(分布式)环境下运行HADOOP 1) 设置/etc/hosts文件 实验中两台机器处于同一局域网中,其中一台作为master,ip地址为10.5.110.223,一台作为slave,ip地址为10.5.110.207,修改两台机器的/etc/hosts文件, 2) 设置节点之间无密码SSH登陆 验证配置SSH是否正确 3) 修改集群配置文件 修改master的masters、slaves,修改所有节点的core-site.xml, hdsf-site.xml, mapred-site.xml,在此不一一列出。 4) 在master上格式化HDFS 5)

10、启动和停止集群 启动集群, 在master上启动HDFS后,jps结果如下: master slave 在master上启动mapreduce后,jps结果如下: master slave 停止集群 4.2 运行程序 4.2.1 在单机上运行程序 (1) 在Eclipse下,新建map/reduce工程 (2) 新建一个java类UserNameCount,编写代码 (3) 运行程序,结果如下: (4) 在eclipse中编译好源代码后,导出程序的jar包,供在集群上使用。 4.2.2 在集群上运行程序 (

11、1) 启动集群,通过jps命令查看master,slave上启动的服务列表,结果如下: (2) 在集群环境下运行该程序jar包(UserNameCount.jar),结果如下: (3) 查看集群环境下启动程序生成的结果,即output文件,结果如下: (4) 数据统计结果在part-r-00000中,具体内容如下, 5 附件 源代码如下: package hadoop; import java.io.IOException; import java.util.StringTokenizer; import org.apache.hado

12、op.conf.Configuration; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.LongWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Job; import org.apache.hadoop.mapreduce.Mapper; import org.apache.hadoop.mapreduce.R

13、educer; import org.apache.hadoop.mapreduce.lib.input.FileInputFormat; import org.apache.hadoop.mapreduce.lib.input.TextInputFormat; import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat; import org.apache.hadoop.mapreduce.lib.output.TextOutputFormat; public class UserNameCount {

14、public static class UserNameCountMap extends Mapper { private final IntWritable one = new IntWritable(1); private Text word = new Text(); public void map(LongWritable key, Text value, Context context) throws IOException, InterruptedExcepti

15、on { String line = value.toString(); StringTokenizer token = new StringTokenizer(line); while (token.hasMoreTokens()) { word.set(token.nextToken()); context.write(word, one); } } } public static class UserNameCountReduce extends Reducer

16、 IntWritable> { public void reduce(Text key, Iterable values, Context context) throws IOException, InterruptedException { int sum = 0; for (IntWritable val : values) { sum += val.get(); } context.write(key, new IntWritable(sum)); } } public static

17、 void main(String[] args) throws Exception { Configuration conf = new Configuration(); Job job = new Job(conf); job.setJarByClass(UserNameCount.class); job.setJobName("usernamecount"); job.setOutputKeyClass(Text.class); job.setOutputValueClass(IntWritable.class); job.setMapp

18、erClass(UserNameCountMap.class); job.setReducerClass(UserNameCountReduce.class); job.setInputFormatClass(TextInputFormat.class); job.setOutputFormatClass(TextOutputFormat.class); FileInputFormat.addInputPath(job, new Path(args[0])); FileOutputFormat.setOutputPath(job, new Path(args[1])); job.waitForCompletion(true); } }

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        抽奖活动

©2010-2026 宁波自信网络信息技术有限公司  版权所有

客服电话:0574-28810668  投诉电话:18658249818

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :微信公众号    抖音    微博    LOFTER 

客服