收藏 分销(赏)

两地三中心分布式双活数据中心技术发展趋势教学教材.docx

上传人:w****g 文档编号:3851842 上传时间:2024-07-22 格式:DOCX 页数:5 大小:300.39KB
下载 相关 举报
两地三中心分布式双活数据中心技术发展趋势教学教材.docx_第1页
第1页 / 共5页
两地三中心分布式双活数据中心技术发展趋势教学教材.docx_第2页
第2页 / 共5页
两地三中心分布式双活数据中心技术发展趋势教学教材.docx_第3页
第3页 / 共5页
两地三中心分布式双活数据中心技术发展趋势教学教材.docx_第4页
第4页 / 共5页
两地三中心分布式双活数据中心技术发展趋势教学教材.docx_第5页
第5页 / 共5页
亲,该文档总共5页,全部预览完了,如果喜欢就下载吧!
资源描述

1、此文档仅供收集于网络,如有侵权请联系网站删除两地三中心分布式双活数据中心技术发展趋势2016-06-20 作者:赵培(中兴通讯)业务连续性保障一直是IT运维的热点话题,随着近几年政企IT系统集中化的建设发展思路的确定,在数据中心层面的业务连续性保障成为了重中之重。上到国家、行业主管单位,下到企业,都在数据中心层面制定了相关的数据中心业务连续性建设标准、行业指导意见、企业规范等。2007年,国家发布了国标GB20988-2007(信息系统灾难恢复规范);2009年6月,银监会发布商业银行信息科技风险管理指引,要求商业银行按照两地三中心的模式建设数据中心。最近两年,随着云计算技术的发展和逐步应用,

2、政府在智慧城市和电子政务云的建设方面也采用了集约化集中建设的思路,为保证集中化建设的数据中心可以为政务应用提供高业务连续性,双活数据中心也基本成为智慧城市和电子政务云解决方案的基本要求。虽然两地三中心模式的概念频频被提及,但目前仅仅在金融行业中的大体量商业银行和股份银行做得好一些,基本建设了两地三中心的模式。中型金融机构(如城商行、农信行)正在按照监管单位要求,逐步建设自己的灾备体系。据统计在国内的160家城市商业银行中,70%以上的银行没有灾备中心,这些银行目前仅有一些简单的数据备份措施,整个系统存在较大风险。而建设灾备中心对于这些体量较小的金融机构也存在投资规模大、选址要求高、运行成本的问

3、题。最近两年,在金融监管部门的要求下,部分规模较大的金融机构采用了双活数据中心的建设方案,但由于故障导致的宕机仍然时有发生,如支付宝由于一根光纤被挖断,从而导致了大规模的网络故障和服务长时间阻断。业界现有的各类双活两地三中心解决方案并不完美,根本无法达到国家关于RTO(故障恢复时间)小于数分钟,RPO(故障恢复点)等于0的要求。通过对淘宝光纤故障、携程程序员误删数据、西部某地方银行37小时服务中断等事故的分析,我们分析发现现有的两地三中心双活数据中心方案存在以下一些问题:传统主-备模式的数据中心只是简单的软硬件资源的堆砌。正常情况下,主用数据中心对外提供业务,备用数据中心处于闲置状态。只有在发

4、生灾难宕机的情况下,业务系统才从主用中心迁移到备用中心来。然而,灾难往往只是小概率事件,企业投入大量人力和物力建设的备用中心大多时候都是处于闲置状态,资源使用率极低。更为重要的是,主-备模式的数据中心的RTO和RPO无法保证业务的连续性,一旦数据中心级别的灾难发生,应用的迁移往往需要各个层面大量复杂的手工工作,如系统和应用层面的重建、数据库的恢复等等。因此在现有传统的数据中心建设模式下,无论采用怎样的优化方式,主-备模式的建设思路对高可用性的提高、业务连续性的保证只能实现量变,却一直没有实质性的跨越。传统的基于简单备份冗余的容灾体系结构不适应当前复杂的网络计算环境。金融业数据中心承载着大量的大

5、型机、小型机、服务器、存储设备、应用系统和数据,数据和业务及应用系统的集中化,导致了传统的备份冗余的容灾体系结构已不适应日趋复杂的网络计算环境,数据大集中的模式使数据系统的脆弱性在不断地增加,IT系统连续性面临的压力越来越大。目前建立的灾难备份系统滞后于云计算等技术的发展趋势。随着云技术的应用,数据大集中是企业信息化发展的必然趋势,但是与这个趋势相应的灾备建设相对滞后。目前的灾难备份系统,广泛存在着日志分析、故障诊断、自动化程度不高、应对突发事件和抗风险的能力薄弱等现状。灾难备份系统没有与云计算技术进行很好的融合。数据大集中给信息系统带来技术挑战。在结构化和非结构化数据爆炸式增长下,数据存储的

6、结构差别大、异构性强。用户对于信息系统提供的服务要求也越来越高,很多关键业务的可用性要求达到99.999%。然而,当前可利用的灾备技术在大量结构化和非结构化数据面前,存在着难以恢复、恢复复杂、恢复时间长、恢复效率低等诸多技术挑战。譬如,数据存储的安全性防护机制不完善,如何实现数据之间的逻辑卷管理、存储虚拟化管理和多链路冗余管理,保证数据的安全性和可用性等,将是巨大的难题,而且还会带来后期容量和性能扩展难等一系列问题。为了解决上述问题,中兴通讯基于云计算IaaS和PaaS层面的云计算技术,推出分布式双活数据中心。分布式双活数据中心的建设和部署架构如图1所示,在同城建设两个数据中心,同时为外提供业

7、务服务,同时在异地建设灾备中心,用于数据的备份。中兴通讯分布式双活数据中心方案可以帮助客户找到优化投资利用率、保证业务连续性的新思路。中兴通讯总结了多年IT服务领域的实践经验,结合数据中心发展的最新技术,按照以下建设原则,帮助用户建设两地三中心:规范性:符合“信息系统灾难恢复规范”国家标准,严格遵循行业和客户的相关技术规范和业务规范的要求,由客户进行整体规划与统一建设安排;安全性:系统软硬件架构充分考虑整个系统运行的安全策略和机制。采用多种安全技术手段,为用户提供完善的安全技术保障;先进性:利用SDN/VxLAN、计算虚拟化和分布式数据库集群等先进技术,实现跨数据中心虚拟二层互通、虚拟机跨数据

8、中心迁移容灾和数据安全等应用双活关键功能;成熟性:采用成熟稳定并具有电信级运营实例的硬件平台和第三方软件;融合性:各供应商提供的存储设备可以通过虚拟化存储网关统一管理,为客户提供安全和高体验的产品;持续性:通过前端网络的设计,应用跨中心集群部署,充分保障客户业务服务的持续性,双活中心RTO达到0;一致性:通过数据复制技术、跨中心共享存储技术来保证各中心的数据一致性,最高可达RPO为0;高效性:双活中心同时对外提供业务服务,减少资产闲置率。目前业界陆续出现了一些比较成熟双活方案,如F5、Radware等以负载均衡技术和负载均衡产品为核心的双活方案,EMC、IBM等以数据存储层数据复制技术和存储网

9、关产品为核心的双活方案,Oracle等数据库厂家以数据库同步备份工具和集群技术(如Oracle RAC)为核心的数据库双活方案,VMware以虚拟化技术为核心的虚拟机容灾方案。这些方案在各厂家各自的产品领域都是很成熟、可靠的方案,但这些方案的具体设施和建设,存在一定的实际困难,具体如下:各厂家、各资源层次,都有相应的双活和灾备方案,但缺乏对各层双活资源的统一的自动化配置管理,每个资源层次都有自己的方法和工具,造成配置周期过长。各厂家、各资源层次缺乏对双活资源的统一管理和调度,当资源或者应用发生迁移,无法形成联动,造成资源状态的不一致问题,对应用系统性能产生影响,甚至导致应用不可用。同时切换周期

10、长,无法实现灾备的演练。缺乏对应用层的管理,资源和应用系统无法完整地结合。图2、图3为中兴通讯双活数据中心技术架构,与业界其他方案相比,中兴通讯的双活方案考虑了前端网络、应用、计算资源、数据以及DCI数据中心互联等各层次统一管理和资源联动,通过中兴通讯云管理平台,统一对资源以及资源所承载的应用进行管理、切换和演练。使用前端网络双活支持用户可以同时访问两个数据中心的业务,并且当某个数据中心灾难时,用户的访问都切换到正常的数据中心;应用双活支持应用的跨中心集群部署,从而支持在两个数据中心为用户提供相同的业务服务;资源双活支持计算资源在两个数据中心之间灵活地部署和调度;数据双活是双活数据中心的核心,

11、保障某个数据中心灾难时,另个数据中心仍然保留所有的数据层;数据中心互联是双活数据中心建设的前提,通过数据中心的二层互联、三层互联和存储网络互联来实现两个数据中心之间的应用集群、业务访问和数据同步等功能。同时中兴通讯的双活方案还提供了业界独有的应用层PaaS平台(iSWare),iSWare可以根据服务等级对应用进行编排,并调用云平台、关键设备接口,实现双活业务跨数据中心的自动化部署和智能联动,保障在业务节点或设备发生故障时,将业务恢复到可达的最佳运行状态。iSWare具备双活应用的自动化部署、双活应用的健康度检测、基于健康度检测的应用自动跨数据中心服务迁移、并可以方便地实现双活应用的迁移演练等功能。只供学习与交流

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 教育专区 > 其他

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服