ImageVerifierCode 换一换
格式:DOCX , 页数:9 ,大小:961.05KB ,
资源ID:1886223      下载积分:3 金币
验证码下载
登录下载
邮箱/手机:
验证码: 获取验证码
温馨提示:
支付成功后,系统会自动生成账号(用户名为邮箱或者手机号,密码是验证码),方便下次登录下载和查询订单;
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

开通VIP
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.zixin.com.cn/docdown/1886223.html】到电脑端继续下载(重复下载【60天内】不扣币)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  
声明  |  会员权益     获赠5币     写作写作

1、填表:    下载求助     索取发票    退款申请
2、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
3、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
4、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
5、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【w****g】。
6、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
7、本文档遇到问题,请及时私信或留言给本站上传会员【w****g】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。

注意事项

本文(主流分布式存储技术对比分析-GFS-HDFS-GlusterFS-Ceph-Swift.docx)为本站上传会员【w****g】主动上传,咨信网仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知咨信网(发送邮件至1219186828@qq.com、拔打电话4008-655-100或【 微信客服】、【 QQ客服】),核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载【60天内】不扣币。 服务填表

主流分布式存储技术对比分析-GFS-HDFS-GlusterFS-Ceph-Swift.docx

1、 主流分布式存储技术对比分析GFS、HDFS、GlusterFS、Ceph、Swift 【导读】如今分布式存储产品众多令人眼花缭乱,如何选型?要根据其背后的核心架构来分析它本来的原貌,然后才能决定其是否适合我们的具体场景。1引言目前市面上各个厂家的分布式存储产品五花八门,但是如果透过产品本身的包装看到其背后的核心技术体系,基本上会分为两种架构,一种是有中心架构的分布式文件系统架构,以GFS、HDFS为代表;另外一种是完全无中心的分布式存储架构,以Ceph、Swift、GlusterFS为代表。对具体分布式存储产品选型的时候,要根据其背后的核心架构来分析它本来的原貌,然后才能决定其是否适合我们的

2、具体场景。2主流分布式存储技术对比分析2.1GFS & HDFSGFS和HDFS都是基于文件系统实现的分布式存储系统;都是有中心的分布式架构 (图2.1) ;通过对中心节点元数据的索引查询得到数据地址空间,然后再去数据节点上查询数据本身的机制来完成数据的读写;都是基于文件数据存储场景设计的架构 ;都是适合顺序写入顺序读取,对随机读写不友好。图2.1 中心化的分布式存储架构接下来,我们来看GFS和HDFS都有哪些具体特性,我们应该如何应用?1. GFS是一种适合大文件,尤其是GB级别的大文件存储场景的分布式存储系统。2. GFS非常适合对数据访问延迟不敏感的搜索引擎服务。3. GFS是一种有中心

3、节点的分布式架构,Master节点是单一的集中管理节点,既是高可用的瓶颈,也是可能出现性能问题的瓶颈。4. GFS可以通过缓存一部分Metadata到Client节点,减少Client与Master的交互。5. GFS的Master节点上的Operation log和Checkpoint文件需要通过复制方式保留多个副本,来保障元数据以及中心管理功能的高可用性。相对于GFS来说,我们来看HDFS做了哪些区别?1. HDFS的默认最小存储单元为128M,比GFS的64M更大。2. HDFS不支持文件并发写,对于单个文件它仅允许有一个写或者追加请求。3. HDFS从2.0版本之后支持两个管理节点(N

4、ameNode),主备切换可以做到分钟级别。5. HDFS 更适合单次写多次读的大文件流式读取的场景。6. HDFS不支持对已写文件的更新操作,仅支持对它的追加操作。2.2GlusterFSGlusterFS虽然是基于文件系统的分布式存储技术,但是它与GFS/HDFS有本质的区别,它是去中心化的无中心分布式架构(图2.2);它是通过对文件全目录的DHT算法计算得到相应的Brike地址,从而实现对数据的读写;它与Ceph/Swift的架构区别在于它没有集中收集保存集群拓扑结构信息的存储区,因此在做计算的时候,需要遍历整个卷的Brike信息。图2.2 Gluster FS接下来,我们来看Glust

5、erFS都有哪些具体特性,我们应该如何应用?1. GlusterFS是采用无中心对称式架构,没有专用的元数据服务器,也就不存在元数据服务器瓶颈。元数据存在于文件的属性和扩展属性中 。2. GlusterFS可以提供Raid0、Raid1、Raid1+0等多种类型存储卷类型。3. GlusterFS采用数据最终一致性算法,只要有一个副本写完就可以Commit。4. GlusterFS默认会将文件切分为128KB的切片,然后分布于卷对应的所有Brike当中。所以从其设计初衷来看,更适合大文件并发的场景。5. GlusterFS 采用的DHT算法不具备良好的稳定性,一旦存储节点发生增减变化,势必影响

6、卷下面所有Brike的数据进行再平衡操作,开销比较大。6. Gluster FS文件 目录利用扩展属性记录子卷的中brick的hash分布范围,每个brick的范围均不重叠。遍历目录时,需要获取每个文件的属性和扩展属性进行聚合,当目录文件 较多 时,遍历 效率很差 。2.3Ceph & Swift我们知道, 相对于文件系统的中心架构分布式存储技术,Ceph&Swift都是去中心化的无中心分布式架构(图2.3);他们底层都是对象存储技术;他们都是通过对对象的哈希算法得到相应的Bucket&Node地址,从而实现对数据的读写 。图2.3 去中心化的分布式存储架构接下来,我们来看Ceph和Swift

7、都有哪些具体特性,我们应该如何应用?1. Ceph是一种统一了三种接口的统一存储平台,上层应用支持Object、Block、File 。2. Ceph采用Crush算法完成数据分布计算,通过Tree的逻辑对象数据结构自然实现故障隔离副本位置计算,通过将Bucket内节点的组织结构,集群结构变化导致的数据迁移量最小。3. Ceph保持数据强一致性算法,数据的所有副本都写入并返回才算写事务的完成,写的效率会差一些,所以更适合写少读多的场景。4. 对象保存的最小单元为4M,相比GFS&HDFS而言,适合一些小的非结构化数据存储。虽然底层都是对象存储,相对于Ceph来说,Swift又有哪些独特的特性呢

8、?1. Swift只保障数据的最终一致性,写完2个副本后即可Commit,这就导致读操作需要进行副本的对比校验,读的效率相对较低。2. Swift采用一致性哈希算法完成数据分布计算,通过首次计算对象针对逻辑对象(Zone)的映射实现数据副本的故障隔离分布,然后通过哈希一致性算法完成对象在Bucket当中的分布计算,采用Ring环结构组织Bucket节点组织,数据分布不如Ceph均匀。3. Swift 需要借助Proxy节点完成对数据的访问,不同于通过客户端直接访问数据节点,相对数据的访问效率来讲,比Ceph要差一些。总结来看,由于Swift需要通过Proxy节点完成与数据节点的交互,虽然Pro

9、xy节点可以负载均衡,但是毕竟经历了中间层,在并发量较大而且小文件操作量比较的场景下,Ceph的性能表现会优秀一些。为了说明我们从原理层面的判断,接下来借助ICCLAB&SPLAB的性能测试结果来说明。表1 Ceph集群配置Node1 - MONNode2 - OSDNode2 - OSDHDD1: OSHDD1: OSHDD1: OSHDD2: not usedHDD2: osd.0 - xfsHDD2: osd.2 - xfsHDD3: not usedHDD3: osd.1 - xfsHDD3: osd.3 - xfsHDD4: not usedHDD4: journalHDD4: jo

10、urnal表2 Swift集群配置Node1 - ProxyNode2 - StorageNode2 - StorageHDD1: OSHDD1: OSHDD1: OSHDD2: not usedHDD2: dev1 - xfsHDD2: dev3 - xfsHDD3: not usedHDD3: dev2 - xfsHDD3: dev4 - xfsHDD4: not usedHDD4: not usedHDD4: not used以上是测试本身对于Ceph和Swift的节点及物理对象配置信息,从表的对比,基本可以看出物理硬件配置都是相同的,只不过在Swift的配置当中还需要配置Contain

11、er相关逻辑对象。xcountykb,x表示Swift集群当中设置的Container数量,y表示进行压力测试所用的数据大小。从图中表现出来的性能趋势分析:1. Container的数量越多,Swift的读写性能会相对差一些;2. 在4K-128K数据大小的范围内,Ceph和Swift的读性能表现都是最佳的;3. 在4K-64K数据大小范围内,Ceph的读性能几乎是Swift的2-3倍,但是写的性能相差不是非常大。Ceph_xSwiftx,x表示并发数量。从图中表现出来的性能趋势分析:1. 对于并发读操作,Ceph的表现上明显优于Swift,无论是稳定性还是IOPS指标;2. 对于并发写操作,Ceph的并发量越高其性能表现越接近Swift,并发量越少其性能表现会明显逊色于Swift。3. 对于并发读写操作的性能稳定性上,Ceph远胜于Swift。3 结语通过对主流分布式存储技术的各项特性分析梳理之后,我们基本上可以得出以下若干结论:1. GFS/HDFS还是适合特定大文件应用的分布式文件存储系统(搜索、大数据.);2. GlusterFS是可以代替NAS的通用分布式文件系统存储技术,可配置性较强;3. Ceph是平衡各个维度之后相对比较宽容的统一分布式存储技术;4. 分布式存储技术终究不适合应用到热点比较集中的关系型数据库的存储卷场景上。-全文完-

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服