ImageVerifierCode 换一换
格式:DOC , 页数:9 ,大小:104KB ,
资源ID:9342470      下载积分:10 金币
快捷注册下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

开通VIP
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.zixin.com.cn/docdown/9342470.html】到电脑端继续下载(重复下载【60天内】不扣币)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

开通VIP折扣优惠下载文档

            查看会员权益                  [ 下载后找不到文档?]

填表反馈(24小时):  下载求助     关注领币    退款申请

开具发票请登录PC端进行申请

   平台协调中心        【在线客服】        免费申请共赢上传

权利声明

1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前可先查看【教您几个在下载文档中可以更好的避免被坑】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时联系平台进行协调解决,联系【微信客服】、【QQ客服】,若有其他问题请点击或扫码反馈【服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【版权申诉】”,意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:0574-28810668;投诉电话:18658249818。

注意事项

本文(数据导入HBase最常用的三种方式.doc)为本站上传会员【仙人****88】主动上传,咨信网仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知咨信网(发送邮件至1219186828@qq.com、拔打电话4009-655-100或【 微信客服】、【 QQ客服】),核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载【60天内】不扣币。 服务填表

数据导入HBase最常用的三种方式.doc

1、数据导入HBase最常用的三种方式及实践分析 摘要:要使用Hadoop,需要将现有的各种类型的数据库或数据文件中的数据导入HBase。一般而言,有三种常见方式:使用HBase的API中的Put方法,使用HBase 的bulk load工具和使用定制的MapReduce Job方式。本文均有详细描述。 【编者按】要使用Hadoop,数据合并至关重要,HBase应用甚广。一般而言,需要 针对不同情景模式将现有的各种类型的数据库或数据文件中的数据转入至HBase 中。常见方式为:使用HBase的API中的Put方法; 使用HBase 的bulk load 工具;使用定制的MapReduce Jo

2、b方式。《HBase Administration Cookbook》一书对这三种方式有着详尽描述,由 ImportNew 的陈晨进行了编译,很有收获,推荐给大家。 HBase数据迁移(1)-使用HBase的API中的Put方法  使用HBase的API中的Put是最直接的方法,用法也很容易学习。但针对大部分情况,它并非都是最高效的方式。当需要将海量数据在规定时间内载入HBase中时,效率问题体现得尤为明显。待处理的数据量一般都是巨大的,这也许是为何我们选择了HBase而不是其他数据库的原因。在项目开始之前,你就该思考如何将所有能够很好的将数据转移进HBase,否则之后可能面临严重的性

3、能问题。 HBase有一个名为 bulk load的功能支持将海量数据高效地装载入HBase中。Bulk load是通过一个MapReduce Job来实现的,通过Job直接生成一个HBase的内部HFile格式文件来形成一个特殊的HBase数据表,然后直接将数据文件加载到运行的集群中。使用bulk load功能最简单的方式就是使用importtsv 工具。importtsv 是从TSV文件直接加载内容至HBase的一个内置工具。它通过运行一个MapReduce Job,将数据从TSV文件中直接写入HBase的表或者写入一个HBase的自有格式数据文件。 尽管importtsv 工具在需要

4、将文本数据导入HBase的时候十分有用,但是有一些情况,比如导入其他格式的数据,你会希望使用编程来生成数据,而MapReduce是处理海量数据最有效的方式。这可能也是HBase中加载海量数据唯一最可行的方法了。当然我们可以使用MapReduce向HBase导入数据,但海量的数据集会使得MapReduce Job也变得很繁重。若处理不当,则可能使得MapReduce的job运行时的吞吐量很小。 在HBase中数据合并是一项频繁执行写操作任务,除非我们能够生成HBase的内部数据文件,并且直接加载。这样尽管HBase的写入速度一直很快,但是若合并过程没有合适的配置,也有可能造成写操作时常被阻塞。

5、写操作很重的任务可能引起的另一个问题就是将数据写入了相同的族群服务器(region server),这种情况常出现在将海量数据导入到一个新建的HBase中。一旦数据集中在相同的服务器,整个集群就变得不平衡,并且写速度会显著的降低。我们将会在本文中致力于解决这些问题。我们将从一个简单的任务开始,使用API中的Put方法将MySQL中的数据导入HBase。接着我们会描述如何使用 importtsv 和 bulk load将TSV数据文件导入HBase并可查看.我们也会有一个MapReduce样例展示如何使用其他数据文件格式来导入数据。上述方式都包括将数据直接写入HBase中,以及在HDFS中直接写

6、入HFile类型文件。本文中最后一节解释在向HBase导入数据之前如何构建好集群。本文代码均是以Java编写,我们假设您具有基本Java知识,所以我们将略过如何编译与打包文中的Java示例代码,但我们会在示例源码中进行注释。 通过单个客户端导入MySQL数据 数据合并最常见的应用场景就是从已经存在的关系型数据库将数据导入到HBase中。对于此类型任务,最简单直接的方式就是从一个单独的客户端获取数据,然后通过HBase的API中Put方法将数据存入HBase中。这种方式适合处理数据不是太多的情况。 本节描述的是使用Put方法将MySQL数据导入HBase中的方式。所有的操作均是在一个单独的

7、客户端执行,并且不会使用到MapReduce。本节将会带领你通过HBase Shell创建HBase表格,通过Java来连接集群,并将数据导入HBase。 准备 公共数据集合是个练习HBase数据合并的很好数据源。互联网上有很多公共数据集合。我们在本文中奖使用 “美国国家海洋和大气管理局 1981-2010气候平均值”的公共数据集合。访问http://www1.ncdc.noaa.gov/pub/data/normals/1981-2010/下载。 这些气候报表数据是由美国国家海洋和大气管理局(NOAA)生成的。在本文中,我们使用在目录 products | hourly 下的小时温度数

8、据(可以在上述链接页面中找到)。下载hly-temp-normal.txt文件。  需要一个MySQL实例,在MySQL数据库中创建hly_temp_normal表格,使用如下的SQL命令: [sql] view plaincopy 1. create table hly_temp_normal (   2. id INT NOT NULL AUTO_INCREMENT PRIMARY KEY,   3. stnid CHAR(11),   4. month TINYINT,   5. day TINYINT,   6. value1 VARCHAR(5),   7. val

9、ue2 VARCHAR(5),   8. value3 VARCHAR(5),   9. value4 VARCHAR(5),   10. value5 VARCHAR(5),   11. value6 VARCHAR(5),   12. value7 VARCHAR(5),   13. value8 VARCHAR(5),   14. value9 VARCHAR(5),   15. value10 VARCHAR(5),   16. value11 VARCHAR(5),   17. value12 VARCHAR(5),   18. value13 VARCHAR(

10、5),   19. value14 VARCHAR(5),   20. value15 VARCHAR(5),   21. value16 VARCHAR(5),   22. value17 VARCHAR(5),   23. value18 VARCHAR(5),   24. value19 VARCHAR(5),   25. value20 VARCHAR(5),   26. value21 VARCHAR(5),   27. value22 VARCHAR(5),   28. value23 VARCHAR(5),   29. value24 VARCHAR(5) 

11、  30. );   本文提供了一些脚本将txt中的数据导入到MySQL表中。你可以使用 insert_hly.py 来加载每小时的NOAA数据。只需要修改脚本中的主机(host),用户(user),密码(password)以及数据名称(database name)。完成修改后就能够将下载的hly-temp-normal.txt数据导入到mysql的hly_temp_normal 表中,使用命令如下:  $ python insert_hly.py -f hly-temp-normal.txt -t hly_temp_normal 译者注:此处给出python脚本下载地址( (译者注

12、由于对于python的了解有限以及环境限制,所以单独另写了一段Java的代码,可以直接使用的: [java] view plaincopy 1. import java.io.FileInputStream; import java.io.IOException; import java.io.InputStreamReader;   2.     import java.io.Reader; import java.sql.Connection; import java.sql.DriverManager;   3.     import java.sql.PreparedStat

13、ement; import java.sql.SQLException; import   4.     java.util.ArrayList; import java.util.List; public class InsertHly { static   5.     String user="root"; static String pwd="root123"; static String driver="com.mysql.jdbc.Driver";   6.     static String url="jdbc:mysql://127.0.0.1:3306/htom?use

14、Unicode=true&characterEncoding=UTF-8";   7.     public static void main(String[] args) throws SQLException { Connection   8.     baseCon = null; String sqlStr="insert into hly_temp_normal (stnid,month,day,value1,value2,value3,value4,value5,value6,value7,value8,value9,value10,value11,value12,value1

15、3,value14,value15,value16,value17,value18,value19,value20,value21,value22,value23,value24)   9.     values (?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?)"; List parasValues=new   10.     ArrayList(); try { baseCon = DriverManager.getConnection(url, user, pwd);   11.     } catch (SQLExcep

16、tion e) { // TODO Auto-generated catch block e.printStackTrace();   12.     } // 替换为文件地址 String allRowsStr=readFileByChars("d:\\TestZone\\hly-temp-normal.txt",   13.     "gbk"); String[] rows=allRowsStr.split("\n"); for(String row : rows){ parasValues.add(row.split("\\s+"));   14.     } PreparedS

17、tatement basePsm = null; try { baseCon.setAutoCommit(false);   15.     basePsm = baseCon.prepareStatement(sqlStr); for (int i = 0; i < parasValues.size();   16.     i++) { Object[] parasValue = parasValues.get(i); for (int j = 0; j <   17.     parasValue.length; j++) { basePsm.setObject(j + 1, pa

18、rasValue[j]); } basePsm.addBatch();   18.     } basePsm.executeBatch(); baseCmit(); } catch (SQLException e) {   19.     baseCon.rollback(); throw e; } finally { if (basePsm != null) { basePsm.close();   20.     basePsm = null; } if (baseCon != null) { baseCon.close(); } } } public   21.     sta

19、tic String readFileByChars(String fileName, String enc) { StringBuffer   22.     content=new StringBuffer(); Reader reader = null; try { // 一次读多个字符 char[]   23.     tempchars = new char[30]; int charread = 0; reader = new InputStreamReader(new   24.     FileInputStream(fileName),enc); // 读入多个字符到字

20、符数组中,charread为一次读取字符数 while   25.     ((charread = reader.read(tempchars)) != -1) { // 同样屏蔽掉\r不显示 if ((charread   26.     == tempchars.length) && (tempchars[tempchars.length - 1] != '\r'))   27.     { content.append(tempchars); } else { for (int i = 0; i < charread;   28.     i++) { if (tempchar

21、s[i] == '\r') { continue; } else { content.append(tempchars[i]);   29.     } } } } return content.toString(); } catch (Exception e1) { e1.printStackTrace();   30.     } finally { if (reader != null) { try { reader.close(); } catch (IOException   31.     e1) { } } } return null; } } )   为使得下一节中的J

22、ava源码能够编译,你需要下列库支持:  hadoop-core-1.0.2.jar  hbase-0.92.1.jar  mysql-connector-java-5.1.18.jar 你可以将他们手动加入classpath中,或者使用本文中的可用的示例代码。 在导入数据之前,确认HDFS, ZooKeeper,和HBase集群均正常运行。在HBase的客户端节点记录日志。 如何实施 通过单节点客户端将数据从MySQL导入HBase:  1.从HBase的客户端服务器从过HBase的Shell命令行,连接到HBase的集群。  hadoop$ $HBASE_HOME/bin

23、/hbase shell  2.在HBase中创建 hly_temp 表  hbase> create ‘hly_temp’, {NAME => ‘n’, VERSIONS => 1}  3.写一个Java程序将数据从MySQL中导入HBase,并将其打包成jar。在Java中按照下列步骤导入数据:  i. 使用Java创建一个connectHBase() 方法来连接到指定的HBase表:  $ vi Recipe1.java [java] view plaincopy 1. private static HTable connectHBase(String tablename)

24、 \   2. throws IOException {   3. HTable table = null;   4. Configuration conf = HBaseConfiguration.create();   5. table = new HTable(conf, tablename);   6. return table;   7. }   ii. 使用Java创建一个 connectDB() 方法来 MySQL :  $ vi Recipe1.java [java] view plaincopy 1. private static Connection c

25、onnectDB() \   2. throws Exception {   3. String userName = "db_user";   4. String password = "db_password";   5. String url = "jdbc:mysql://db_host/database";   6. Class.forName("com.mysql.jdbc.Driver").newInstance();   7. Connection conn = DriverManager.getConnection(url,   8. userName, pas

26、sword);   9. return conn;   10. }   此处是Java类中的main() 方法,在其中我们从MySQL获取数据并存入HBase中:  $ vi Recipe1.java [java] view plaincopy 1. public class Recipe1 {   2.  public static void main(String[] args) {   3.    Connection dbConn = null;   4.    HTable htable = null;   5.    Statement stmt = null;

27、   6.    String query = "select * from hly_temp_normal";   7.    try {   8.      dbConn = connectDB();   9.      htable = connectHBase("hly_temp");   10.      byte[] family = Bytes.toBytes("n");   11.      stmt = dbConn.createStatement();   12.      ResultSet rs = stmt.executeQuery(query);  

28、 13.      // time stamp for all inserted rows   14.      // 所有插入数据的时间戳   15.      long ts = System.currentTimeMillis();   16.      while (rs.next()) {   17.        String stationid = rs.getString("stnid");   18.        int month = rs.getInt("month");   19.        int day = rs.getInt("day");  

29、 20.        String rowkey = stationid + Common.lpad(String.    21.        valueOf(month), 2,     22.        '0') + Common.lpad(String.valueOf(day), 2, '0');   23.        Put p = new Put(Bytes.toBytes(rowkey));   24.        // get hourly data from MySQL and put into hbase   25.        //从MySQL中获

30、取小时数据并存入HBase   26.        for (int i = 5; i < 29; i++) {   27.          String columnI = "v" + Common.lpad    28.          (String.valueOf(i - 4), 2, '0');   29.          String valueI = rs.getString(i);   30.          p.add(family, Bytes.toBytes(columnI), ts,     31.          Bytes.toBytes(v

31、alueI));   32.        }   33.        htable.put(p);   34.      }   35.    } catch (Exception e) {   36.      e.printStackTrace();   37.    } finally {   38.      try {   39.        if (stmt != null) {   40.          stmt.close();   41.        }   42.        if (dbConn != null) {   43.   

32、       dbConn.close();   44.        }   45.        if (htable != null) {   46.          htable.close();   47.        }   48.      } catch (Exception e) {   49.        // ignore   50.      }   51.    }   52.  }   53. }   4.运行导入任务,下面的脚本就是用于执行JAR文件: [java] view plaincopy 1. #/bin/bash   2

33、 bin=`dirname $0`   3. bin=`cd $bin;pwd`   4. cp=$HBASE_HOME/conf:$HBASE_HOME/hbase-0.92.1.jar:$bin/build/hac-   5. chapter2.jar   6. for jar in $bin/lib/*.jar   7. do   8.    cp=$cp:$jar   9. done   10. for jar in $HBASE_HOME/lib/*.jar   11. do   12.    cp=$cp:$jar   13. done   $JAVA_H

34、OME/bin/java -classpath $cp “hac.chapter2.Recipe1″ 5.验证HBase中导入的数据,通过HBase的Shell连接至HBase:  hadoop$ $HBASE_HOME/bin/hbase shell 6.验证数据已经被导入了HBase的对应表中:  hbase> count ‘hly_temp’  95630 row(s) in 8.9850 seconds  hbase> scan ‘hly_temp’, {LIMIT => 10}  …  AQW000617050110 column=n:v23,  timestamp

35、1322958813521, value=814S  AQW000617050110 column=n:v24,  timestamp=1322958813521, value=811C  10 row(s) in 0.6730 seconds 运行原理 在步骤1和2中,我们在HBase中创建了目标表用于插入数据。目标表名称为hly_temp,且只有单个列族(column family) n。我们将列族名称设计为一个字母的原因,是因为列族名称会存储在HBase的每个键值对中。使用短名能够让数据的存储和缓存更有效率。我们只需要保留一个版本的数据,所以为列族指定VERSION属性。

36、在Java代码中,为了连接到HBase,我们首先创建一个配置(Configuration )对象,使用该对象创建一个HTable实例。这个HTable对象用于处理所有的客户端API调用。如你所见,我们在代码没有设置任何ZooKeeper或HBase的连接配置。所以程序该如何连接到运行的HBase集群呢?这或许是因为我们在步骤4中将 $HBase/conf目录添加到classpath中了。通过上述设置,HBase的客户端API会classpath中的hbase-site.xml加载配置信息。连接配置信息在hbase-site.xml中设置。 在使用JDBC中MySQL中获取数据之后,我们循环读

37、取结果集,将MySQL中的一行映射为HBase表中的一行。此处我们使用stationid,月份和日期栏位来生成HBase数据的row key。我们在月份和日期左边也填充0,补足2位数。这样做很重要,因为HBase的row key是按照字典排序的,意味着12将排序在2之前,这样可能会导致一些意外的情况发生。 我们创建了Put对象,利用row key添加一行数据。每小时的数据的添加需要调用Put.add()方法,传入参数包括列族(column family), 限定符(qualifier),时间戳( timestamp), and 值(value)。再次声明,我们使用很短的列族名称能够让存储数据更高效。所有的数据都被添加之后,我们调用HTable.put() 方法会将数据保存进HBase的table中。 最后,所有打开的资源都需要手动关闭。我们在代码中的final块中结束了MySQL和HBase的连接,这样确保即时导入动作中抛出异常仍然会被调用到。  你能够通过对比MySQL和HBase的数据行数来验证导入是否正确。你可以在扫描(scan)结果集中发现数据都准确的导入了HBase。

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        抽奖活动

©2010-2025 宁波自信网络信息技术有限公司  版权所有

客服电话:0574-28810668  投诉电话:18658249818

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :微信公众号    抖音    微博    LOFTER 

客服