ImageVerifierCode 换一换
格式:DOC , 页数:81 ,大小:6.39MB ,
资源ID:4869276      下载积分:18 金币
验证码下载
登录下载
邮箱/手机:
图形码:
验证码: 获取验证码
温馨提示:
支付成功后,系统会自动生成账号(用户名为邮箱或者手机号,密码是验证码),方便下次登录下载和查询订单;
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

开通VIP
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.zixin.com.cn/docdown/4869276.html】到电脑端继续下载(重复下载【60天内】不扣币)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

开通VIP折扣优惠下载文档

            查看会员权益                  [ 下载后找不到文档?]

填表反馈(24小时):  下载求助     关注领币    退款申请

开具发票请登录PC端进行申请


权利声明

1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前可先查看【教您几个在下载文档中可以更好的避免被坑】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时联系平台进行协调解决,联系【微信客服】、【QQ客服】,若有其他问题请点击或扫码反馈【服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【版权申诉】”,意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4009-655-100;投诉/维权电话:18658249818。

注意事项

本文(医院数据存储归档及容灾整体解决方案大型模板.doc)为本站上传会员【精****】主动上传,咨信网仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知咨信网(发送邮件至1219186828@qq.com、拔打电话4009-655-100或【 微信客服】、【 QQ客服】),核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载【60天内】不扣币。 服务填表

医院数据存储归档及容灾整体解决方案大型模板.doc

1、 医院数据存储归档及容灾整体解决方案大型 81 2020年4月19日 文档仅供参考 XX医院数据集中存储备份归档 及容灾整体解决方案 EMC² Where information lives 年 月 目 录 第1章 前言 3 第2章 项目背景 4 2.1 存储系统建设需求 4 2.2 项目建设目标 5 第3章 存储整体解决方案 6 3.1 方案设计原则 6 3.2 存储集中方案 7 3.2.1 方案拓扑图 7 3.2.2 方案说明 7 3.2

2、3 集中存储方案特点总结 8 3.3 数据备份方案 10 3.3.1 方案设计原则 10 3.3.2 备份系统拓扑图 11 3.3.3 备份系统方案说明 11 3.3.4 备份策略的选择 11 3.4 数据归档方案 13 3.4.1 归档存储系统Centera架构介绍 13 3.4.2 归档方案规划拓扑图 14 3.4.3 数据归档方案描述 14 3.4.4 Centera归档方案优势 15 3.5 数据容灾方案 16 3.5.1 数据容灾的需求 16 3.5.2 容灾解决方案拓扑 17 3.5.3 容灾方案说明 17 3.5.4 方案特点 18 3.5.5

3、容灾方案总结 18 3.5.6 容灾系统设计说明 18 3.6 产品选型 23 第4章 售后服务 24 4.1 EMC售后服务及承诺 24 4.1.1 服务承诺 24 4.1.2 技术支持和服务的联系方法 25 4.1.3 服务期限及服务内容 27 第5章 EMC公司及方案所用产品介绍 29 5.1 选择EMC公司 29 5.2 EMC CLARiiON介绍 30 5.3 EMC Legato Networker备份软件产品简介 36 5.4 EMC Centera介绍容寻址存储系统 37 5.5 MirrorView存储镜像软件介绍 43 第1章 前言

4、XXX医院,在医疗信息化建设方面,一直走在行业的前沿,做为医院的业务支撑——IT信息系统也日趋完善,包括HIS、LIS、PACS等业务。此次计划进一步巩固,建立一个高可用的、安全可靠的、面向服务的医疗信息系统,更好的为病人服务。 EMC公司作为存储业界的领头羊,很荣幸能XXX医院一起,综合行业建设的成功经验,帮助XXX医院建立一套功能完善的、技术先进的存储系统,保证此次信息化建设的顺利成功。 EMC公司基于信息为核心提出的E-Infostructure正是在存储平台上提供了完整的集中存储、备份、归档、容灾的整体存储解决方案, 为医院信息平台提供了坚实的信息基础设施,提高了系统及数据库的处理

5、能力、可靠性、业务连续性和可扩展性,使平台建设具有最佳的投入产出比。 EMC是世界领先的企业存储技术供应商,致力于为全球所有企业用户提供数据存储系统的完整解决方案。在过去几年中,EMC公司与政府、医疗、企事业单位、高端院校有着非常好的合作, EMC智能企业存储设备CLARiiON 系列在客户的各类应用中扮演了重要的角色,EMC设备的可靠性、高性能、完善的售后服务得到用户的高度评价。 第2章 项目背景 HIS、LIS、PACS等系统是XXX医院信息系统的核心,医院信息系统的稳定运行是业务正常开展的前提,大型的数据库和大量的数据是医

6、院信息系统的特征。做为整个系统的基础组成部分,数据是整个系统的的“血液”,存在于各个子系统的每个部分,因此数据的安全,是整个系统正常运转的基础,针对数据的保护措施必不可少。 磁盘阵列做为数据的直接存储空间,稳定性、性能均要求极高,以保证数据的正常、顺畅读写,最终保证整个系统的平稳运转。本次项目主要针对核心系统,HIS、LIS、PACS等,此次针对关键服务器数据集中存放在光纤磁盘阵列中,以保证数据读写的稳定及性能,并经过磁盘阵列的各种保护措施,保证数据的安全性,最终保证各个业务系统的可用性。 在数据实施集中存储后,为了防止一些逻辑错误或人为的误操作,生产数据需要有可靠的备份,以便恢复。因此需

7、要构建一套备份系统,包括虚拟带库及备份软件。 业务系统的数据性能及稳定性得到了保证,但PACS等系统的数据量增长迅速,如果不及时将历史数据归档,将会占用大量宝贵的一线存储资源,且医疗行业的规定,要求这些数据必须有一个可靠的归档,以备审查,因此数据的归档系统必不可少。 最后,考虑到XXX医院应用系统的可用性,在发生区域性自然灾害,或是机房灾难或是设备故障时,能及时恢复应用,这就必须对应用系统提供容灾保护,并最终保证各个应用系统的高可用性。 2.1 存储系统建设需求 Ø 高可用的存储系统 应用系统将以冗余的存储系统为基础,为了保证应用系统的持续可用,端到端的高可用性是必须的,即存

8、储系统平台的每个组件都有提供高可用运行的条件和机制。作为整个应用系统平台的重要组成部分,我们要为该系统的存储提供高可用架构设计。 Ø 高性能的存储系统 大量交易处理的数据库系统对后端存储设备的IOPS性能有较高的要求,我们不但要考虑到此次数据库数据文件的存放,还要考虑到未来文件数据的存放。当数据库系统面对大量并发用户请求时,其应用响应延迟应保持在用户能够接受的范围之内,应用系统的快速响应的一个重要环节是要求后端存储系统对IO的快速响应。 存储系统的IOPS性能正是表明存储系统在满足正常的响应延迟时,能够提供的最大并发访问数,这是设计系统时,对存储的对性能进行评估的一个主要考虑。

9、 Ø 生产系统存储的扩展性 随着建设计划的逐步实施,应用系统对数据存储量的要求会不断增大,本次一期投入的存储系统必须具备灵活的扩展性,灵活扩展要求表现在以下几个方面: a、网络化存储结构,存储设备节点灵活增加 b、存储容量以模块化增长,并支持不同类型存储介质模块 c、对未来的SAN系统完善、数据离线备份等有预见性和前瞻性 d、存储设备的升级应以保护用户现有投资为前提 e、提供数据归档功能 Ø 生产系统数据保护 为防止生产系统数据的意外丢失,区域性灾难、或是设备故障,必须提供数据备份及容灾机制,为应用系统提供不同级别的数据安全性。 2.2 项目建设目标 根据上述的需求

10、分析,并考虑到未来的发展,本次项目中存储备份系统的建设,从技术角度将采用下述几项技术方案来实现,并达到预期目标: 1. 采用SAN存储技术,建设更高性能的集中存储系统,提供整个系统存储的灵活的连接与功能扩展,为数据提供基本的数据安全保护,以满足当前大型数据库快速访问的要求,并在面临数据增长时,要实现无缝的扩容,而且不增加因扩容带来的管理开销。 2. 提供冗余的存储系统,并由应用系统提供数据并发存取功能,同时使用两台冗余的存储设备,以提高数据的可用性,防止因设备故障导致应用系统不可用。 3. 提供虚拟带库和备份软件实现生产数据的备份和恢复。 4. 提供数据长期归档解决方案,将PACS等系

11、统大量的数据归档,以备审查和后期调用。 5. 为未来的数据建设,如数据容灾等打好基础,提供在线数据、归档数据的异地容灾方案。 第3章 存储整体解决方案 3.1 方案设计原则 经过仔细分析选型内容及要求,结合多年的方案设计经验,在方案设计上本着以下原则来进行: 1. 数据安全性和高可靠性 随着IT信息系统的发展,用户对系统数据的依赖性逐步提高,因而数据的安全性显得尤为重要。数据存储系统是开展正常工作的业务支撑,是整个信息管理重要的组成部分,是典型的关键性业务,因此对系统的高可靠性有着很高的要求。 2. 先进性:能适应未来的体系结构。 计算机技术是一项十分活跃的

12、技术,更新换代很快。因此系统设计时应考虑到产品的先进性,有利于保护投资。要求采用的存储架构具有先进性,保证技术和方案在未来三到五年之内不落后。 3. 良好的兼容性与可扩展性 要与现有的系统有很好的连接性,管理操作方面,能够满足使用性的原则,能够与现有系统兼容,产品的扩展性,直接影响整体项目的投资保护,良好的扩展性,是产品必不可少的,实现在线的系统升级不影响业务的正常运行。 4. 易用性:管理简单,操作灵活简单,界面友好。 在数据存储网络、资源配置、系统服务和系统管理上有良好的层次设计和统一的管理平台,使集中式的存储结构清晰,便于使用、管理和维护。 5. 实用性 着眼于业

13、务、管理的实际需要,合理利用设备资源,建立高效实用的存储系统。 3.2 存储集中方案 3.2.1 方案拓扑图 图二:XXX医院数据中心存储系统规划拓扑图 3.2.2 方案说明 EMC的集中存储方案是提供一台稳定性极高、高性能、并具有丰富软件功能的全4Gb光纤存储阵列CLARIION CX4-xxx。利用EMC分层存储的特点,HIS,PACS等对性能要求较高的业务采用15000转的光纤硬盘;LIS,体检等业务采用10000转的光纤硬盘;OA、邮件等等其它业务采用SATA硬盘。此次规划将HIS,PACS,LIS等业务的多台服务器连接到存储,经过冗余的HBA卡和交换机,构成SA

14、N存储环境。OA,财务等业务系统能够经过iSCSI链路访问SATA硬盘空间。 配置说明 1. 采用CX4-xxx,配置xxx块xxxGB的高性能光纤硬盘;配置xxx块xxxTB的SATA硬盘。 2. 经过SAN连接到存储系统的每台服务器均配备两块光纤通道适配卡(HBA卡),分别连 接到两台EMC专业的4Gb光纤交换机上,交换机又同时与磁盘 阵列的两个控制器连接,这就构成了最完善的冗余连接。 3. 配合业界最先进的Powerpath链路管理软件,即可实现整个SAN无任何单点故障,保证 了数据乃至整个业务系统的高可用性。 3.2.3 集中存储方案特点总结 1. 主机层 连接EMC

15、存储的关键主机均安装两块HBA卡,分别经过两台SAN光纤交换机连接到磁盘阵列的主机接口上,无任何单路径故障。每台主机安装EMC PowerPath数据访问高可用软件,实现主机到存储路径的互相保护和工作量负载均衡。EMC PowerPath软件功能在处理故障时,能保证对整体系统影响最少。 EMC PowerPath可针对不同的数据访问类型选择操作模式,操作模式主要有如下表中四种: 操作模式 描述 SYMM_OPT 用户根据读写,动态优化或用户自定义优先级策略 Round_Robin I/O请求路径分配无选择,随机方式,其它厂家只能实现这种策略 Least_I/Os I/O请求被

16、分配给I/O最少的路径 Least_Blocks I/O请求被分配给Block最少的路径 2. 存储层 EMC本次技术建议将采用的是EMC CX4系列企业级存储系统,该存储系统平均无故障时间:99.999%, <<财富>>杂志评价EMC产品质量全球第一。系统内部高度冗余,无任何单点故障,控制器、电源、风扇等硬件均为冗余,并有软件RAID、热备盘、不间断电源保护,可保证整个存储系统的高可用性。 Ø EMC 产品提供业界领先的带宽以及能随容量线性扩展的卓越性能。 CLARiiON CX4是针对端到端的4Gb性能而设计的独特产品:突破当前存储架构的限制,完美引入了PCI-Xpre

17、ss总线技术和更强的CPU处理能力,新一带CX4系统内部的部件都是为4Gb性能而设计,性能表现特别出众。CX4系列在与同类产品的竞争中以卓越的性能脱颖而出,成为持续型应用程序的理想阵列选择。 Ø 提供基于虚拟LUN迁移的独特能力 使得用户能够在业务不停顿的前提下,在一个Clariion CX阵列内将数据从一个LUN(或metaLUN)移动到另一个LUN(或metaLUN)。虚拟LUN迁移的独特能力能够轻松实现阵列内的存储分级、优化性能、提高存储资源的利用率、迁移到新技术的磁盘。其它同类竞争产品都不具备这一能力。 Ø 缓存调谐-高性能的源泉 与竞争对手的模块化存储产品相比,所有E

18、MC存储系统都有着异常灵活的缓存调整功能,能够确保系统能够根据负载精确调谐缓存,从而带来最佳的系统性能。EMC独有的先进的CACHE算法设计,使CLARiiON能达到88%~96%的CACHE读命中率和100%的CACHE写命中率,同时提供顺序文件读应用的高效RAID3的CACHE技术,大大缩短了存储系统的响应时间,提高了整个存储系统的性能。 Ø 每个存储处理器的高速缓存均彼此构成镜像。 换言之,每个存储处理器中的高速缓存既包含它所拥有的磁盘组的基本高速缓存数据,也包含其它存储处理器的基本数据的副本。如果发生存储处理器失效,则仍正常工作的存储处理器的高速缓存—包括其基本高速缓存和与其并

19、列的存储处理器的镜像。保持I/O的连续性。 Ø 异常掉电的数据保护 如果发生电源失效的情况,则备用电池装置可提供需要的电力,从而确保在电源关闭前将全局高速缓存安全地写入磁盘。 Ø 阵列内的数据保护 CLARiiON系列存储处理器的内存是完全受ECC保护的;硬件可在所有总线上提供奇偶校验保护。阵列软件可在用户数据的每个部分提供CRC保护,最终确保数据的完整性和可用性。 3.3 数据备份方案 结合客户的实际环境和需求,我们建议构建一个集中备份管理系统,对数据实现保护。备份管理软件建议采用EMC公司的NetWorker备份软件系列。Ne

20、tWorker是能够跨平台的企业级备份管理软件。自1988年创立以来,NetWorker产品已经为全世界超过25,000个用户提供了出众的服务。 3.3.1 方案设计原则 1. 集中管理的备份系统; 对业务系统,各个系统集中的专门的管理是提高能效,降低维护成本的必然方式。 2. 快速便捷的灾难恢复手段; 备份系统建设最重要作用是数据丢失后的恢复,但数据恢复的时间长短直接影响业务系统运行情况,也直接反映了备份系统的可用性。 3. 备份对业务系统的影响尽可能小; 不增加业务系统的运行压力,避免数据备份与生产竞争系统资源,数据备份工作必须在系统运行的最闲时进行 4. 备份数据高可

21、用性; 备份系统作为本地数据保护最后一道防线,在数据恢复时要求用于恢复的备份数据是百分之百可用。 5. 能够对各种复杂系统进行高性能的备份; 对业务系统,其业务系统所使用的存储结构,数据性质不尽相同,比如SAN,NAS等等。要求备份系统可全面支持各种存储架构及备份技术。 6. 对存储设备的智能管理及更高的设备利用率; 在很多情况下,硬件设备的投资不断加大,但其使用率却不断降低。使投资获得最大的回报要求更高的设备使用率和共享能力。同时也要求更高的管理水平。 7. 低维护成本和高可扩展性。 3.3.2 备份系统拓扑图 3.3.3 备份系统方案说明

22、 1、 新增一台高性能Windows Server PC服务器,经过一块HBA卡连接到SAN网络, 安装NetWorker服务器软件,配置成业务系统的备份服务器。 2、 新增一台虚拟带库或磁带库存放备份数据。 3、 对HIS,PACS等数据库主机安装Network相应的数据库模块及LAN-Free备份模块,实 现数据库的在线备份,备份数据经过LAN-Free方式备份到带库上。 4、 其它服务器安装Network客户端模块,备份数据经过LAN的方式备份到带库上。 5、 只需要在备份服务器上统一配置备份策略,即可实现定时自动备份。 3.3.4 备份策略的选择 1、全备

23、份:每次备份定义的所有数据,优点是恢复快,缺点是备份数据量大,数据多时可能做一次全备份需很长时间 2、差分增量:备份自上一次备份以来更新的所有数据,其优点是每次备份的数据量少,缺点是恢复时需要全备份及多份增量备份 3、累计增量:备份自上一次全备份以来更新的所有数据,其优缺点介于上两者之间。 我们能够结合这三种方式,灵活应用。比如: ² 数据量少时,我们能够每次都用全备份备份数据,这样,恢复时,只需要指定一个数据源即可,能够快速恢复。 ² 数据量大时,如果每天作全备份,效率会很低。我们能够结合全备份和增量备份方式。比如每星期作一次全备份(如星期天),其它时间,每天作

24、一个增量备份(如:星期一到星期六)。恢复时,只要依次恢复最多七个备份介质即可。(如:上周日、星期一、星期二 ...,直到出事前一天的数据。) ² 数据量特别大时,每星期作全备份对系统的压力也会很大。这时,我们能够结合全备份、累计增量备份、增量备份三种方式,提供相对效率高,恢复有快的备份手段。比如每个月作一次全备份(如每月初),然后每星期日作一次累计增量备份,其它时间,每天作一次增量备份。恢复时,先恢复月初的全备份,再恢复上周日的累计增量备份,在依次恢复以后每一天的增量备份,如星期一、星期二 ...,直到出事前一天的数据。 ² 文件数据备份 每周进行一次全备份,每天增量备份;

25、 备份数据保留1个月;克隆到磁带库上的数据无限期保留。 ² 数据库系统备份 每周进行一次全备份,每天增量备份; 备份数据保留1个月;克隆到磁带库上的数据无限期保留。 3.4 数据归档方案 3.4.1 归档存储系统Centera架构介绍 PACS系统处理和保存的都是医疗影像数据,数据量大,增长速度快,原始数据产生后将不会再变更,且数据产生初期的访问频率较高,随着时间推移访问频率将明显降低。在保证数据安全的前提下,需要保证容量的增加不会使数据访问性能有明显的降低。根据数据信息生命周期管理(ILM)的理论,我们建议PACS系统的数据存储分两个层次考虑

26、 使用基于SAN架构的存储系统进行短期数据在线存储(前面集中存储方案已阐述);同时,使用基于CAS架构的存储系统进行数据归档,实现数据近线存储。 EMC Centera 是存储业界第一个专门为企业数据归档设计的解决方案, 是特为满足“固定内容”——因经常引用、具有长期价值而被保留的不变的数字资产的独特要求而设计的。 它可帮助客户遵从最严格的法规要求,是当前世界领先的在线档案存储系统。 提供了传统磁盘阵列、磁带和光盘解决方案所无法提供的功能,解决企业无法将固定内容在线存储这一挑战,极大地削减了管理成本,使企业总拥有成本却更低. 存储单元:作为海量归档存储系统的Centera是以节点为基本

27、存储单元,每个节点拥有自己的CPU、内存、千兆网口和硬盘等基本组成部分。因此每个节点就是一个具有高性能的微型智能磁盘阵列,随着用户数据的线性增加,节点也灵活堆叠增加。为用户带来整体存储容量,计算性能、网络带宽的不断增强。当前每个节点的裸存储容量为2TB,由此看来,用户能够按需投资,不必一次投入太大,保护投资回报。Centera以4个节点为一个基本存储单元, 裸容量为8TB;每个机柜最大能够包含32个节点,裸容量为64TB;同时,为了方便管理,4个机柜能够组成一个Cluster,总容量能够达到256TB。 存储模式:用户形成数据对象文件,然后存入Centera。同时,Centera 计算

28、出该对象的内容地址或指纹(这是一个基于对象本身的全球唯一标识符)。 Centera 然后将内容地址返回给应用服务器。服务器存储内容地址(而不是对象)以便日后引用。当服务器需要重新调用该对象时,它将内容地址发送到 Centera,然后 Centera 检索此对象。不需要管理任何文件系统或逻辑单元。 网络带宽和联接:Centera 支持并行访问和多线程操作,每个机柜单元中的节点至少能够提供2个1000兆的对外联接的以太网链路。而且链路能够根据性能的需要线性增加。由于Centera是基于IP访问模式,因此用户可经过划分VLAN来隔离广播包、释放带宽、增强管理。 3.4.2 归档方案规划拓

29、扑图 3.4.3 数据归档方案描述 根据PACS应用系统的数据特点,我们建议把长期的数据迁移到性能略低于SAN磁盘阵列的CAS近线存储系统。 以往的PACS系统是把长期数据归档到传统的光盘和磁带库等离线介质进行保存,存在诸多问题。一方面当患者再就诊时,医生对历史数据的调用非常费时,往往一幅影像数据就需要数分钟才能取得,不但增加了患者等待时间,也降低了医生的工作效率;另一方面,传统的数据保存方式非常依赖于介质的存放环境,经常会出现存放时间较长后,光盘或磁带无法读取,造成患者重要的病况信息丢失,无论对患者还是对医院都会造成不良影响。 而当前的CAS系统基于磁盘系统保存数据,经过IP网络

30、向应用系统提供数据存取服务,数据的可靠性、访问速度、应用的灵活性都有非常大的优势,已经成为PACS系统长期保存影像数据的首选方案,取代传统光盘/磁带介质成为大势所趋。 对于本次系统建设,我们建议采用EMC公司成熟的CAS系统——Centera——作为PACS应用系统数据长期保存的平台,根据在线影像数据的特定属性进行定期归档,使在线存储系统的容量保存在一个合理的范围。同时,当医生读取患者的历史病况数据时,能提供快速的反馈,缩短患者就诊时间,提高医生工作效率。 Centera设备提供API给应用系统使用,应用系统只需简单的开发,即可利用Centera提供的海量、安全、可靠的归档空间。另外按照要

31、求,在未来随着数据的逐步增加, 要求该海量存储系统具备很高的可扩展性, 可直接对Centera实现存储容量的动态扩充,支持用户存储空间的灵活分配和变更。Centera系统采用独立节点冗余阵列 (RAIN)的设计,可在线扩容,即可在线增加节点数量;这一功能能充分保护用户的投资,需要扩展的容量可经过增加节点数量来实现;扩容能力达到PB级。由于每个节内部含有相应的CPU、内存、硬盘等,因此节点的增加带来的是整体性能的提高; 3.4.4 Centera归档方案优势 数据归档采用EMCCAS(CENTERA)的解决方案,经过千兆IP网络连接EMC 综合归档平台Centera和存储设备,作为长期的

32、数据归档,保证数据共享和快速在线访问。将需要的归档的数据由磁盘阵列来实现短期存储,并依据归档策略,定期自动实现数据的归档操作。 应用优势在于: Ÿ 提高生产系统性能、减少备份窗口 – 生产系统中的“固定内容”被归档后,需备份的数据减少, 因此提高了备份质量、减少备份时间 Ÿ 基于策略的归档流程 – 随时快速访问需要的数据 – 按照制定的策略进行迁移、设置保存期 Ÿ 建立分级存储架构,但不改变原有生产系统的存储平台 – 存储的内容基于它的商业价值和可访问性的需求 – 建立信息生命周期管理 Ÿ 提高生产系统磁盘空间利用率 – 监控用户定义的磁盘空间的极限 – 自动的、持续的

33、释放生产系统的磁盘空间 – 高效快速的响应时间 3.5 数据容灾方案 3.5.1 数据容灾的需求 在传统以往的业务系统中,往往仅考虑本地高可用,即经过集群的双机系统(Cluster或HA)对业务应用提供保护,在一台服务器的软硬件发生故障时,将整个业务切换到后备服务器上。该方法很大程度上避免了服务器的单点故障,提高了整个业务系统的可用性。 可是,随着业务系统的发展,随着需求的不断提高,更好的为客户服务,在一些重要的系统中,客户已经不满足于简单的本地保护。因为一旦出现异常情况,如火灾、爆炸、地震、水灾、雷击或某个方向线路故障等自然原因以及电源机器故障、人为破坏等非自然原因引起的灾难,导致

34、业务正常无法进行和重要数据的丢失、破坏,造成的损失将不可估量。因此,越来越多的客户提出了要求更高的系统可用性,要求当业务系统能够在发生上述灾难时快速恢复,将损失降到最低点,甚至要求实现真正的异地容灾保护。 因为生产过程停顿将会对运营造成相当大的代价,因此业务连续性是一个关系到最终赢利的问题,无中断灾难恢复对于系统来说至关重要,客户必须制定即时业务重启计划,而不是需要数天或数周的恢复计划;未来采用的应用系统程序要随着生产系统的调成而不断的更新,程序最终投入使用之前,完备的测试工作是必不可少的,采用数据复制技术能够快速的生成现有系统的数据影像,经过对数据影像的测试,完成应用程序的快速部署。 生

35、产系统的高可用设计我们当前已经达到,可是当生产系统所处环境发生“灾难”,造成整个机房节点的失效,则本地的任何高可用技术保障都将随之失效;而要消除“灾难”对应用系统的影响,则需要在异地建立容灾备份系统,相对于生产系统建立数据的复制、应用的复制环境,及时地恢复对客户访问的响应。EMC 网络存储提供了业务连续性的解决方案。 因此,针对XXX医院现有的系统情况,项目需求如下: 为现有存储系统核心建立容灾系统,以保证存放在存储系统上的数据具有高安全性,在遇到异常情况的时候,能够快速切换到容灾系统,从而保持业务的连续性。 3.5.2 容灾解决方案拓扑 容灾中心存储与生产中心存储实现存储

36、级的容灾保护,采用EMC的MirrorView软件,实现最成熟的容灾方案,系统主要架构如上。 3.5.3 容灾方案说明 在容灾机房新增加一个CX4阵列,经过MirrorView软件,将原有的CX4和容灾机房的CX4进行数据同步,两个阵列之间经过光纤连接,由MirrorView实施数据的同步镜像。在容灾机房增加两个新的光纤交换机,主机房的服务器及存储运行HIS等业务,容灾机房的服务器和存储运行PACS等业务,两台阵列之间经过MirrorView做互为同步。最后的系统结构如上面的拓扑图所示,搭建的数据容灾架构,充分利用现有资源,完成数据的生产中心与容灾中心建设,为保障数据的高安全性和可靠性

37、打下良好基础。 存储配置: 容灾机房的存储配置为: 3.5.4 方案特点 1. 基于存储层提供同步或异步选项,性能较好 2. 能够从 EMC Navisphere 软件中方便地管理 3. 在阵列上操作而且对所有服务器和应用程序是透明的 4. 与SnapView 集成以实现高级保护和实用功能 5. 经过启用到目标站点的故障切换允许更快的灾难重启 6. 任何时候都有一致而且可还原的远程副本 3.5.5 容灾方案总结 Mirror view 为CLARiiON 附带软件,用于CLARiiON间的数据同步。 Mirror view已集成在CLARii

38、ON中,无需再购买其它硬件设备。Mirror view支持同步\异步两种数据分发方式,同时支持FC\ISCSI两种网络传输方式。逐字节的同步两台CX4上的需要同步的数据,当生产系统的主机需要将数据写入到本地磁盘阵列上时,会同时拷贝到容灾中心的CX4上,在两台阵列均完成写入操作时,则反馈给主机数据已写入完成的信息,这就保证了两台阵列上的数据完全相同,不会在本地的阵列被破坏时,发生数据丢失的错误,在容灾发生时,RPO=0。 一旦生产中心的设备出现故障,或出现其它容灾时,由于两台阵列的数据完全相同,只需要将容灾中心的阵列分离,并将容灾中心服务器上的备用业务系统运行起来, 即可恢复正常生产。 经过

39、对整个信息系统的划分,构建了不同类型业务的中心,高效利用了原有的设备,生产中心采用了更高性能的核心存储系统,而组建的异地容灾备份中心,使得整个系统具有更高可用性和安全性。 3.5.6 容灾系统设计说明 根据现有的条件,在容灾系统总体设计上,将采用2个数据中心的容灾方式:将生产系统运行中心和容灾备份系统运行中心,当生产中心瘫痪时,能够将所有的核心管理系统数据处理操作放到容灾备份系统站点中进行。包含容灾备份系统的总体架构设计如下图: 容灾的总体架构的描述如下: 数据复制 在容灾系统中,所有数据EMC磁盘阵列附带的数据复制软件MirrorView实现生产中心和备份中心的镜像复制

40、确保生产中心与备份中心存储间的数据同步一致,任何一个存储故障不影响应用的正常运行。 系统管理 由于容灾系统将在备份中心增加大量的设备和应用,而主要系统维护人员在生产中心,因此在系统管理上实现: 所有设备可在生产中心统一管理,日常管理在生产中心统一进行,容灾切换后,可在备份中心完成设备的统一管理; 所有设备将与管理系统集成,实现系统的统一监控和事件管理; 网络 为减少容灾系统对入网机构的影响程度,将充分利用IP网络技术,在容灾切换中,将对网络变更的范围控制在生产中心内,实现各入网单位透明。 应用 在容灾系统中,将针对相关功能开发相应的应用,实现与原有应用系统的有机集成。应用将包

41、括以下二方面: Ø 容灾数据复制功能实现和控制 Ø 生产中心和备份中心处理时序通讯协调功能 3.5.6.1 容灾系统存储设计 EMC CX4系列具有的数据保护特性 l 镜像 CX4支持MirrorView软件以镜像到其它EMC存储系统。CX3镜像能够经过短波光纤通道支持300米距离范围,经过长波光纤通道支持10公里距离,经过光纤通道延长器支持60公里距离,或者经过FC到IP路由器(例如CNT Ultranet Edge 1000、Nishan)支持更长的距离。 镜像包含一个源LUN和一个或多个目标LUN。每次对源LUN的写操作在应答发送到主机之前都要同时写入到目标LUN。这被称为

42、同步镜像。同步镜像会影响性能,可是影响的程度取决于几种不同因素,因此镜像实施中售前咨询承诺是非常普遍的。 在建议或提供镜像解决方案时,使用ATA磁盘作为目标LUN兼具经济和技术双方面的优势,是一种合理的选择。 l 快照复制 快照复制(即时复制)是在特定时点创立的一个即时的LUN虚拟拷贝。“虚拟拷贝”的意义在于,快照复制不同于镜像或克隆,它不是数据的完整备份,而是由保存好的数据块(被修改后的数据拷贝)和指针表构成。指针表允许快照软件将数据块有效地整合成由复制数据和原始数据构成的LUN。 以下几点是快照复制的关键特性: 快照复制是即时的 – 快照复制能够创立源LUN在某个特定时点的即时拷

43、贝。快照LUN可在一个快照会话期开始后马上启用。 快照复制可实现磁盘空间按需分配 – 快照复制使用的磁盘空间小于源LUN。 快照复制与源LUN共享数据 – 当您启用一个快照LUN,源LUN的性能会受到影响,因为两个LUN可能在使用同一个磁盘驱动器,而且可能会争夺使用相同的数据。 快照一般应用于备份和其它在某一特定时点数据必须处于“冻结”状态的操作,而且管理员不想因完整拷贝而耗费过多磁盘空间或没有足够时间等待同步克隆。注意快照不能用于数据恢复,因为快照的一部分基于原始数据(若源LUN数据不可访问,快照也不可访问。) CX4上的快照经过可选的SnapView实现。运行于CX3存储处理器的S

44、napView为所有连接至阵列的服务器提供快照功能。这样就简化了快照的管理,而且降低了主机服务器的CPU利用率。 l 克隆 作为CX3提供的SnapView产品的组成部分,克隆或称业务连续卷(Business Continuance Volumes)为特定应用和特定情况提供更加全面的复制解决方案 – 简要描述如下: 克隆和快照复制有以下区别: 克隆是源LUN的完全备份 – 快照复制由部分复制和指针表构成。 克隆是非即时的 – 克隆须与源LUN同步进行,完成前不可使用。注意克隆在某种意义是一种时点拷贝,但数据会在克隆断开后冻结而不是克隆开始时。 克隆会在同步时影响源LUN的性能。一旦

45、一个克隆与数据源断开,您就能够将该克隆LUN独立使用而不会对源LUN有任何影响。克隆不与源LUN共享数据,而且能完全置于单独的轴。 克隆的典型用法包括决策支持系统(要求在原始数据上作分析且不影响生产性能)和应用程序开发(数据的多个完整备份用于不同的测试环境且性能均不受影响)。克隆也可用于SAN启动环境,此时,阵列内的系统磁盘复制是必要的。 CX3可经过SnapView或者卷管理软件如Veritas Volume Manager实现克隆操作。在快照复制一节有关基于主机软件的优势和劣势的论述在此同样适用。 3.5.6.2 容灾系统应用平台 同时,容灾系统需要接管生产系统的应用,必须配置管理

46、系统运行的服务器平台,同样出于经济性的考虑,容灾系统服务器能够选用性能要求低于生产系统的服务器,而且仅运行于单机状态。 3.5.6.3 容灾系统数据复制 数据的远程复制技术是容灾系统的核心技术,它对于数据系统的一致性和可靠性以及系统的应变能力具有举足轻重的作用,经过有效的数据复制,远程的业务数据中心与本地的业务数据实现同步或近似同步,确保一旦本地系统故障,远程的容灾中心迅速进行完整的接管。考虑容灾系统的数据复制技术时,以下几点必须重点考虑: 远程数据中心应具有与本地系统完全同步的能力,确保灾难发生时恢复数据的一致性。 实时复制系统具有广域线路故障时的重新同步机制(即一旦传输网络故障恢

47、复时传输重新同步)。 实时复制系统具有对复制数据进行验证的能力。 实时复制系统对于正常的数据系统I/O访问不应产生效率上的不利影响,在线路无法出现同步时不应影响本地数据访问。 实时复制系统应在任何情况下确保数据包的原有顺序,以保证数据的一致性。 3.5.6.4 数据复制方式选择 当前,业界具有容灾功能的常看法决方案主要包括以下几类:磁盘阵列复制技术,主要由一些磁盘阵列厂商提供,如EMC SRDF、IBM PPRC 、HP BusinessCopy、HDS TrueCopy等;存储卷复制技术,由一些卷管理软件厂商提供,如VERITAS VVR;数据库复制技术,由数据库厂商以及一些第

48、三方厂商提供,如DSG RealSync,Quest SharePlex等;应用层复制技术,由各系统的应用厂商自己提供。 实现这些功能的业界常看法决方案主要包括以下几类: 磁盘阵列复制技术:主要由一些磁盘阵列厂商提供,如EMC SRDF、IBM PPRC 、HP BusinessCopy、HDS TrueCopy等; 存储卷复制技术:由一些卷管理软件厂商提供,如VERITAS VVR; 数据库复制技术:由数据库厂商以及一些第三方厂商提供,如DSG RealSync,Quest SharePlex等; 应用层复制技术:由各系统的应用厂商自己提供; 磁盘阵列复制技术主要适用于数据中

49、心级的海量数据复制,此技术用户必须采用支持该功能的磁盘阵列型号,而这些阵列大都为高端阵列,投资非常昂贵。而且,由于证券行业用户的带宽有限,而磁盘阵列复制技术对带宽的要求又相对很高,动辄需要上GB的带宽。另外,采用磁盘阵列复制技术,其目标端无法提供实时数据查询,由于目标端数据库在复制过程中不能被打开,难于实现交易与查询的分离,同时也造成大量投资浪费。 存储卷复制技术主要适用于工作组级的数据复制,它对CPU资源占用高。同样由于目标端数据无法提供实时数据查询和对带宽的要求高。 而应用层复制技术只适合那些在应用中提供了该技术的应用,由于它的非标准化、开发和维护工作量大,使得其应用不成熟也不普遍。

50、 数据库数据复制属于逻辑数据复制。典型的逻辑数据复制是经过数据库日志实现的。数据库日志是以逻辑的方式记录了数据库的物理操作。数据容灾是经过对数据库日志中的记录的复制完成数据库复制的技术。当主用系统发生操作时,数据库自动记录日志,并将日志进行归档。容灾系统中,日志被传送到备用系统,备用系统根据主用系统的日志本系统中进行对应的操作,保证备用系统和主用系统的一致性。 3.5.6.5 磁盘阵列复制技术优势 存储阵列复制技术 适合对象: 优点: 缺点: l 主要适用于数据中心级的海量数据复制。 l 用户必须采用支持该功能的磁盘阵列型号。 l 支持阵列上的所有数据类型复制。 l 可支

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        抽奖活动

©2010-2025 宁波自信网络信息技术有限公司  版权所有

客服电话:4009-655-100  投诉/维权电话:18658249818

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :微信公众号    抖音    微博    LOFTER 

客服