ImageVerifierCode 换一换
格式:PDF , 页数:29 ,大小:971.06KB ,
资源ID:231209      下载积分:15 金币
验证码下载
登录下载
邮箱/手机:
图形码:
验证码: 获取验证码
温馨提示:
支付成功后,系统会自动生成账号(用户名为邮箱或者手机号,密码是验证码),方便下次登录下载和查询订单;
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

开通VIP
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.zixin.com.cn/docdown/231209.html】到电脑端继续下载(重复下载【60天内】不扣币)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

开通VIP折扣优惠下载文档

            查看会员权益                  [ 下载后找不到文档?]

填表反馈(24小时):  下载求助     关注领币    退款申请

开具发票请登录PC端进行申请。


权利声明

1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前可先查看【教您几个在下载文档中可以更好的避免被坑】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时联系平台进行协调解决,联系【微信客服】、【QQ客服】,若有其他问题请点击或扫码反馈【服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【版权申诉】”,意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4009-655-100;投诉/维权电话:18658249818。

注意事项

本文(《大数据实践》课件 第6章 Spark SQL.pdf)为本站上传会员【曲****】主动上传,咨信网仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知咨信网(发送邮件至1219186828@qq.com、拔打电话4009-655-100或【 微信客服】、【 QQ客服】),核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载【60天内】不扣币。 服务填表

《大数据实践》课件 第6章 Spark SQL.pdf

1、大数据实践大数据应用人才培养系列教材第六章Spark SQL6.1 Spark SQL简介6.3 使用。a tafra m 结构化数据 习题 6.1 Spark SQL简介第六章Spark SQL Spark的结构化数据处理模块提供分布式SQL查询引擎提供处理结构化数据的编程接口 DataFrame6.1 Spark SQL简介第六章Spark SQLSpark支持的结构化数据源6.1 Spark SQL简介第六章Spark SQL分布式SQL引擎的使用场景(1)JDBC/ODBC(2)命令行6.1 Spark SQL简介第六章Spark SQLDataFram e编程接口的使用Java/Sc

2、ala/Python/R数据 6.1 Spark SQL简介第六章Spark SQL函数HDFS、Hive、HBase、Parquet等6.1 Spark SQL简介第六章Spark SQLSpark SQL架构6.1 Spark SQL简介第六章Spark SQLSpark SQL原理-Catalyst优化器Catalyst优化器大数据应用人才培养系列教材第六章Spark SQL6.1 Spark SQL简介6.2 分布式SQL引擎6.3 使用Data Frame AP纱理结构化数据习题)6.2分布式SQL引擎第六章Spark SQLSpark SQL环境酉己置在第五章Spark集群中增加M

3、ySQL元数据库和Thrift JDBC/ODBC Server机器名Spark角色Hadoop角色IP地址cloudlMasterNameNodeSecondaryNameNode ResourceManager192.168.100.10cloud2SlaveMySQL元数据库DataNodeNodeManager192.168.100.11cloud3SlaveThrift JDBC/ODBCServerDataNodeNodeManager192.168.100.126.2分布式SQL引擎第六章Spark SQL MySQL元数据库搭建(1)准备MySQL数据库(2)创建数据库用户sp

4、arksql(3)创建元数据库hiveMetastore MySQL-connector 的酉己置(1)Ti!Gmysql-connector-java-5.1.41-bin.jar(2)酉己置conf/spark-env.sh(3)配置hiverite.xml6.2分布式SQL引擎第六章Spark SQL使用Spark SQL CLI(1)启动Spark SQL CLIcd-/spark-2.1.0-bin-hadoop2.7,/bin/spark-sql17/08/05 01:27:23:Created HDFS directory:/tmp/hive/dta dmin/2c89bf04-

5、9ee7-4acc-a254-5cbe5bcla57917/08/05 01:27:24:Created local directory:/tmp/dtadmin/2c89bf04-9ee7-4acc-a254-5cbe5bcla57917/08/05 01:27:24:Created HDFS directory:/tmp/hive/dta dmin/2c89bf04-9ee7-4acc-a254-5cbe5bcla579/_tmp_space,db 17/08/05 01:27:24:Warehouse location for Hive client(v ersion 1.2.1)is

6、hdfs:/cloudl:9000/hive/warehouse spark-sql6.2分布式SQL引擎第六章Spark SQL使用Spark SQL CLI(2)使用SQL操作数据show databases use mytestdb常用数据操作SQL创建数据库create database mytestdb查看数据库 指定当前数据库 创建表create table test_tbl(id int,name string,value int)查看表定义 列出所有表 插入数据 查询数据 删除表 删除数据库desc test_tbl show tablesinsert into table t

7、est_tbl values(0zbluez10)select*from test tbl where value15drop table test_tbldrop database mytestdb6.2分布式SQL引擎第六章Spark SQL Thrift JDBC/ODBC Server的搭建与测试(1)启动Thrift JDBC/ODBC Server,/s b in/sta rt-thriftserver.sh查看日志,检查是否启动成功:17/08/05 02:38:10 INFO service.ZkbstractService:Service:T hriftBinaryCLISe

8、rvice is started.17/08/05 02:38:10 INFO service.ZkbstractService:Service:H iveServer2 is started.17/08/05 02:38:10 INFO thriftserver.HiveThriftServer2:Hi veThriftServer2 started使用netstat命令查看thrift server监听的端口号:dtadmincloud3 spark-2.1.0-bin-hadoop2.7$netstat-ntap|grep 7588(Not all processes could be

9、identified,non-owned process infowill not be shown,you would have to be root to see it all.)tcp6 0 0 192.168.100.12:45800 192.168.100.11:3306 ESTABLISHED 7588/javatcp600192.168.100.12:34893:去LISTEN7588/j avatcp600:10000LISTEN7588/javatcp600192.168.100.12:45303:LISTEN7588/javatcp600:4040LISTEN7588/ja

10、va6.2分布式SQL引擎第六章Spark SQL Thrift JDBC/ODBC Server的搭建与测试(2)使用Beeline测试Thrift JDBC/ODBC Server 启动 beeline,/bin/beeline连接Thrift JDBC/ODBC Server iconnect jdbc:hive2:/cloud3:10000beeline!connect jdbc:hive2:/cloud3:10000Connecting to jdbc:hive2:/cloud3:10000Enter username for jdbc:hive2:/cloud3:10000:Ent

11、er password for jdbc:hive2:/cloud3:10000:17/08/05 02:56:55:Supplied authorities:cloud3:10000 17/08/05 02:56:55:Resolved authority:cloud3:10000 17/08/05 02:56:56:Will try to open client transport wit h JDBC Uri:jdbc:hive2:/cloud3:10000Connected to:Spark SQL(version 2.1.0)Driver:Hive JDBC(version 1.2.

12、1.spark2)Transaction isolation:TRANSACT工ON_REPEATABLE_READ 0:jdbc:hive2:/cloud3:100006.2分布式SQL引擎第六章Spark SQL Thrift JDBC/ODBC Server的搭建与测试(3)使用SQL操作数据查看数据库:0:jdbc:hive2:/cloud3:10000 show databases;+-+一+I databaseName|+-+一+I default|I mytestdb|+-+一+指定当前数据库:use mytestdb6.2分布式SQL引擎第六章Spark SQL Thrift

13、JDBC/ODBC Server的搭建与测试(3)使用SQL操作数据查看数据库中的表:0:jdbc:hive2:/cloud3:10000 show tables;+-+-+一一+I database I tableName I isTemporary|+-+-+一一+I mytestdb|test_tbl|false|+-=-+-+一+1 row selected(0.315 seconds)0:_idbc:hive2:/cloud3:10000查询数据:0:jdbc:hive2:/cloud3:10000 select*from test_tbl;I id|name|value|I 0|b

14、lue|10|I 1|red|20|2 rows selected(3.618 seconds)0:jcibc:hive2:/cloud3:10000大数据应用人才培养系列教材第六章Spark SQL6.1 Spark SQLh6:2分布式SQL引擎6.3 使用DataFrame API处理结构化数据习题,6.3使用DataFrame API处理结构化数据 第六章Spark SQL准备工作(1)准备多行Json数据格式文件test.jsonid:lz colorValue:20,name:nfruit_appleHid:2Z colorValue:10,name:nfruit_blueberr

15、yHnidn:3Z colorValue:20fname:nfruit_grapennidn:4,colorValue:10,name:nvegetables_radishnid:5Z ncolorValue:30,name:nvegetables_greensn id”:6,colorValue:30z name11:vegetables_cucuniber”(1)上传文件至Hadoop hdfs中,/bin/hadoop fs-put./test.json/testdata/)6.3使用DataFrame API处理结构化数据 第六章Spark SQL使用Spark Shell编写程序(1

16、)启动 Spark Shell./bin/spark-shell(2)读取json文件scala val df_json=spark.read.json(HDFS:/cloudl:9000/te stdata/test j son)df_json:org.apache.spark.sql.DataFrame=colorValue:bi gint,id:bigint 1 more field(1)过滤选择数据scala val df_a=df_j son.filter($,colorValue,=10)df_a:org.apache.spark.sql.Datasetorg.apache.spa

17、rk.sql ow=colorValue:bigint,id:bigint 1 more fieldscala-f w)d obval df_b=df_a.filter($name.startsWith(fruitorg.apache.spark.sql.Datasetorg.apache.spark.sql colorValue:bigint,id:bigint.1 more field.RH).R)6.3使用DataFrame API处理结构化数据 第六章Spark SQL使用Spark Shell编写程序(4)选择字段scala val df_final=df_b.select(,nam

18、e,colorValue)df_final:org.apache.spark.sql.DataFrame=name:string,colorValue:bigint输出结果 scala df_final.show()+-+-+I name|colorValue|+-+-+Ifruit_blueberry|10|+-+-+,6.3使用DataFrame API处理结构化数据 第六章Spark SQL使用Spark Shell编写程序(6)通过Spark Web查看Spark SQL的执行情况Jobs Stages Storage Environment Executors SQLSQLCompl

19、eted QueriesIDDescriptionSubmittedDurationJobs0show at:32+details2017/04/01 11:04:584 s1,6.3使用DataFrame API处理结构化数据 第六章Spark SQL使用Spark Shell编写程序Data F ra me转换流程Details for Query 0Submitted Time:2017/04/01 11:04:58Duration:4 sSucceeded Jobs:1-YWholeStageCodegen1.6s(1.6 s,1.6 s,1.6 s)f Scan jsonnumber

20、 of output rows:6Filter number of output rows:1V ProjectCollectLimit)6.3使用DataFrame API处理结构化数据 第六章Spark SQL使用Spark Shell编写程序分析后的逻辑计划=Analyzed Logical Plan=name:string,colorValue:bigint GlobalLimit 21+-LocalLimit 21+-Project name#2j colorValue#0L+-Filter StartsWith(name#2,fruit)+-Filter(colorValue#0L

21、cast(10 as bigint)+-RelationcolorValue#0L,id#lLname#2 j son优化后的逻辑计划=Optimized Logical Plan=GlobalLimit 21+-LocalLimit 21+-Project name#2j colorValue#0L+-Filter(isnotnull(colorValue#0L)&(colorValue#0L=10)&StartsWith(name#2,fruit)+-RelationcolorValue#0L?id#lLj name#2 json)6.3使用DataFrame API处理结构化数据 第六

22、章Spark SQL使用Spark Shell编写程序物理计划=Physical Plan=CollectLimit 21+-*Project name#2,colorValue#0L+-*Filter(isnotnull(colorValue#0L)&(colorValue#0L=10)&StartsWith(name#2 fruit)+-*FileScan json colorValue#0L,name#2 Batched:falsej Format:3SON,Location:InMemoryFileIndexHDFS:/cloudl:9000/testdata/test.json,Pa

23、rtitionFilters:,PushedFilters:IsNotNull(colorValue),EqualTo(colorValue?10)StringStartsWithCnamejfruit),ReadSchema:struct大数据应用人才培养系列教材第六章Spark SQL6.;Spark SQ嗔介612 分布式SQL引擎6.3 使用Data Fra me API处理结构化数据习题习题:1.Spark SQL作为分布式SQL引擎有哪几种使用方法?2.Spark SQL中的DataFrame与RDD有何区别?3.DataFrame API支持哪些数据源?请列举3个。4(2功1丫$1优化器对)/1操作优化吗?5.Spark SQL CLI的元数据库和数据默认情况下分别存在什 么地方?感谢聆听

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        抽奖活动

©2010-2025 宁波自信网络信息技术有限公司  版权所有

客服电话:4009-655-100  投诉/维权电话:18658249818

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :微信公众号    抖音    微博    LOFTER 

客服