收藏 分销(赏)

高性能计算和数据中心融合网络研究综述.pdf

上传人:自信****多点 文档编号:580388 上传时间:2024-01-02 格式:PDF 页数:10 大小:1.77MB
下载 相关 举报
高性能计算和数据中心融合网络研究综述.pdf_第1页
第1页 / 共10页
高性能计算和数据中心融合网络研究综述.pdf_第2页
第2页 / 共10页
高性能计算和数据中心融合网络研究综述.pdf_第3页
第3页 / 共10页
亲,该文档总共10页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、书书书第 卷 第 期国防科技大学学报 年 月 :高性能计算和数据中心融合网络研究综述陆平静,董德尊,赖明澈,齐星云,熊泽宇,曹继军,肖立权(国防科技大学 计算机学院,湖南 长沙 )摘要:随着高性能计算、大数据处理、云计算和人工智能计算呈融合发展趋势,高性能计算网络和数据中心网络的融合网络成为互连网络发展的重要趋势。分析当前融合网络研究现状;针对当前最具代表性的融合网络进行详细阐述,全面展示该领域的最新技术和动态;提出融合网络面临的技术挑战;基于技术挑战对融合网络的发展趋势进行展望,包括融合网络协议栈设计中融合与分化并存、基于在网计算实现融合网络听语音聊科研与作者互动性能加速、面向新兴应用需求优

2、化融合网络性能。关键词:高性能计算网络;数据中心网络;融合网络;在网计算中图分类号:文献标志码:开放科学(资源服务)标识码():文章编号:(),(,):,:;传统上认为高性能计算(,)服务于能力型应用,数据中心(,)服务于容量型应用。因此,高性 能 计 算 网 络(,)和数据中心网络(,)在部署方式,运营理念,网络可用性、可靠性与安全性要求 ,多租户虚拟化要求,以及应用程序和编程模型需求 等方面均有很大区别 ,如:以东西向流量为主,通常采用低直径拓扑 ,而 以南北向流量为主,通常采用 拓扑;一般采用增量式部署并向后兼容,而 通常高度集中化部署,升级计划通常在初始安装之前制定 ;在 应用程序部署

3、中,经常考虑局部性,而 在部署时一般不需考虑物理相关性,因为容量是按时间顺序部署的,按物理相关性部署会使虚拟机(,)分配策略复杂化 ;运营商普遍使用虚拟化和多租户来提高管理和资源利用率,而 一般没有虚拟化或多租户需求。近年来,技术飞速发展,已经进入 级(百亿亿次级)时代 。随着高性能计算机的发展,尤其是使用成本的不断下降,其应用领域从具有国家战略意义的核武器研制、信息安全、石油勘探和高端科学计算领域向更广泛的国民经济主战场快速扩张。国际高性能计算排行榜 中,大部分机器并非应用在传统的科学计算领域,而是应用在新兴的互联网云计算和大数据领域。应用从过去的高精尖向更广更宽的方向发展。与云计算、大数据

4、、收稿日期:基金项目:国家重点研发计划资助项目();湖南省自然科学杰出青年基金资助项目()作者简介:陆平静(),女,安徽淮北人,副研究员,博士,硕士生导师,:;熊泽宇(通信作者),男,湖南岳阳人,副研究员,博士,硕士生导师,:国 防 科 技 大 学 学 报第 卷不断融合创新,正与互联网技术进行融合 ,拓展传统 支持 协议栈已成为当前国际高速互连领域的重要发展趋势。近年来,也迅速发展。年,全球已经有 个超大型 。亚马逊、谷歌或微软的 规模比最大的单一 系统还要大 。如图 ()所示,传统 的角色主要是面向外部客户端提供数据,并支持在 中运行简单分布式应用程序,驱动从服务器到 的南北通信。然而,随着

5、分布式数据分析和 广泛应用,逐步成为 、大数据、云计算的社会基础设施,的负载模式已经从数据集中、松耦合转化为紧耦合,大型 流量类似于传统的 应用程序,需求迅速融入传统 ,互连网络的吞吐量和延迟需求稳步增长,与服务器之间通信相关的东西向流量在数量级上占主导地位(如图 ()所示),超低延迟通信对于 至关重要。随着大型 采用具有更高带宽需求的高性能加速器,通过支持远程直接内存访问(,)、融合以太网 (,)、互联网广域 协议 (,)等新技术不断向()()图 数据中心和高性能计算的使用场景 融合。综上所述,随着 、大数据和 计算呈融合发展趋势,高性能计算机和数据中心之间的界限越来越模糊,和 融合网络(下

6、文简称融合网络)成为互连网络发展的重要趋势,从而支撑同一套基础设施高带宽、低延迟运行 、云计算、大数据处理和 计算多领域应用,降低网络成本 。研究现状分析当前高性能计算机系统,既是实现高性能计算的主体,又是承载云计算、和大数据处理分析的主体,、云计算、大数据处理和 计算呈融合发展趋势,需要支持 协议,以满足多领域应用需求。另外,在当今分布式数据分析和机器学习(,)的时代,需求迅速融入了传统 的各个方面。苏金树教授提出:大规模高效网络计算中的网络技术发展趋势主要包括 个方面:融合、分化、优化 。融合体现在不同领域的网络技术没有明显分界线;分化体现在不同领域的独特解决方案或者新应用需求下的创新方案

7、;优化体现在针对特定场景的技术优化实现。邬江兴院士提出 ,现有的自进化的网络技术发展范式已经不能满足新的发展需求,必须从思维方式、方法论和实践规范等方面进行全面改革,并提出了多态智能网络环境,为网络技术的研究与开发提供了新的范式和思路。如图 所示,融合网络从 和 两个方向不断融合发展。图 融合网络研究现状 一方面,高性能计算机通过拓展传统 以支持 协议栈,从而不断向 融合,满足云计算、大数据处理和 计算多领域应用需求。在 场景中,当前有两种主流方案来承载 :专用无限带宽(,)网络和以太网络。高性能互连网络通过开发多模芯片、第 期陆平静,等:高性能计算和数据中心融合网络研究综述设计基于 的以太网

8、(,)协议向以太网融合,已经推出多款多网络融合的芯片产品 ,具有低延迟和高带宽等高性能,可以极大地提高高性能计算系统和数据中心的性能。的 技术以 为中心增加了以太网兼容性,其交换机兼容传统以太网并对 的一些不足进行了改进,同时支持高性能计算和数据中心 ,交换机平均延迟是 。国防科技大学在自主定制高速互连网络 的基础上提出一种融合网络架构,实现高速网 以太网无缝兼容,灵活支持科学计算和云计算等多领域应用 。但是,由于 网络以及其他私有定制网络采用私有协议,架构封闭,难以与现有大规模的 网络实现很好的兼容互通,同时,网络运维复杂,开销居高不下。因此用以太网承载 数据流,已应用在越来越多的 场景。另

9、一 方 面,通 过 支 持 、等技术实现低延迟网络,不断向 融合,数据中心通过支持 协议来支撑 应用场景。许多大型数据中心运营商使用或计划使用 机制实现低延迟网络,用于数据中心内部通信,数据中心之间仍使用 通信 。例如,谷歌推出全新低延迟数据中心网络架构 ,通过 协议支持高性能计算、机器学习训练和网络分解,同时与数据中心规模的 以太网流进行互操作 ;阿里提出了下一代数据中心网络架构“可预期网络”,通过“阿里云全栈自研 端网融合技术”实现的高性能可预期网络将 从“低时延大带宽”演进到“确定性可预期”,不仅支持新兴的大算力和高性能场景,也适用于通用计算场景,成为融合传统网络和未来网络的产业趋势 ,

10、端网融合的可预期网络成为达摩院 十大科技趋势之一 ;微软云平台 采用 互连连接 服务器 ,;微软数据中心、谷歌数据中心、微软 云计算、百度机器学习和腾讯云等优化现有的以太网络,利用 来满足在线服务、大规模数据中心和云计算对网络延迟、吞吐量和 计算性能的严格要求,形成了“一切都在 之上”的局面 ,;美国伊利诺伊大学提出 驱动的加速框架 ,可以在数据中心实现微秒级通信延迟 。下面分别从上述两方面对代表性融合网络技术进行介绍和分析。融合 ,支持云计算、大数据、应用当前,中采用的典型 技术包括:公司(年被 公司收购)的 网络、公司(年被 公司收购)的 互连、公司的 网络、以太网、富士通的 网络、公司的

11、 以及国内的 、等定制 专属网络。随着 系统不断承载云计算、大数据处理和 计算,、国防科技大学分别推出了融合网络,使得 系统在满足传统 应用的同时,支持云计算、大数据、应用。网络 网络是 领域活跃着的第一大互连网络,随着 、和模拟数据对低延迟和加速的需求日益增加,已成为 的首选网络。根据 年 月国际高性能计算排行榜 ,系统中有 台采用了 互连,的系统中有 台采用了 网络。网络通过开发多模芯片、设计 协议等向以太网融合,已经推出多款多网络融合的芯片产品 。网络接口芯片方面,、采用虚拟协议互连(,),支持 和以太网接口,以太网接口支持 技术,兼容性强,并通过智能加速引擎提高性能,可为数据中心提供灵

12、活的高性能解决方案 ,。网络交换芯片方面,、系列产品中 交换机,通过通信加速器、可伸缩的分层聚合和归约 协 议(,)实现在网计算,满足从 到 的网络带宽和时延需求 ,。其最新的网卡 提供下一代数据速率(,)网 络 接 口;、通过在网计算加速引擎进行性能加速,满足 、和超大规模云数据中心的需求 。最新研究中,设计实现了用于高通信带 宽 的 交 换 芯 片 ,基于 的 除了是历史上规模最大、带宽最高的交换机以外,还增加了计算能力为 的 加速器,实现归约操作的卸载计算,对于 应用中通信密集型操作,数据吞吐率几乎翻倍。物理层兼容 以太网和 专用高速网,服务器提供 个 的 国 防 科 技 大 学 学 报

13、第 卷以太网 端口,以及 个双端口 ;支持多轨 以太网;有效满足 、和超大规模云数据中心的需求。网络 网络是 公司于 年推出的新一 代 高 性 能 网 络 互 连 技 术,是 继 、,之后新一代高性能网络互连技术。根据 年 月国际高性能计算 排行榜 ,系统中有 台采用了 网络,包括排名第一的 系统,美国即将推出的另外两台 级系统(和 )也 将 采 用 互 连。中,有 台系统采用 互连。与 以前的互连不同,将高速互连协议建立在标准以太网之上,称之为“以太网”。将专有 的优势带入了高度可互操作的以太网标准,即 交换机首先使用标准以太网协议进行操作,但是当连接的设备支持高级“以太网”功能时,将尝试协

14、商高级功能,同时为高性能计算和数据中心提供支持 。基于 交换机,使用 拓扑构建大型 系统,但 互连可支持任何数量的拓扑。由于 网络的底层是标准以太网协议,其交换延迟与 网络相比仍有差距,在 之间近正态分布,平均交换延迟 ,这其中依然包含了约 的纠错附加延迟,但相比标准以太网 的交换延迟,其交换延迟性能还是有较大提升 。“天河”融合网络“天河”高性能计算机系统采用的是由国防科技大学自主研发的高速互连网络 。针对现有高速互连网络无法同时支持高速网和以太网、无法有效支持计算密集和数据密集 型 应 用 的 问 题,提 出 一 种 融 合 网 络 架构 ,如图 所示 ,该架构包含 主机接口处理模块、高速

15、网网卡核心逻辑、交叉开关 、以太网网卡核心逻辑、以太网报文拆分拼装模块、物理层逻辑、高速网 以太网报文转换模块(,)以及高速网 以太网可配的 网 络 端 口。将高速网虚拟为以太网,使得连接在高速网中的节点直接与连接在以太网中的节点通信,通过高速网传输以太网报文,实现高速网以太网无缝兼容,在一套物理硬件上灵活支持科学计算和云计算应用。图 高速网 以太网融合网络接口卡结构示意图 融合 ,支持高性能计算应用 为了追求高吞吐量、低延迟、低成本、易于管理,一般采用以太网。随着数据中心的负载模式从传统数据集中、松耦合转化为紧耦合,数据中心对超低延迟通信的需求越来越强烈。谷歌、亚马逊、阿里等数据中心通过支持

16、 、协议等实现低延迟通信。技术和 技术 技术最早在 专用传输网络上实现,技术先进,性能最优,但价格高昂,应用局限在 领域。随着以太网性能的大幅提升,越来越多的人想要选择能兼容传统以太网的高性能网络解决方案,而传统 堆栈应用无法支撑 网络通信。业界厂家把 技术移植到传统以太网上,降低了 的使用成本,推动了 技术普及。如图所示 ,根据协议栈融合度的差异,分为 和 两种技术,而 又包括 和 两个版本。图 、和 技术 ,协议基于以太网承载 ,保留了 与应用程序的接口、传输层和网络层,将 的链路层和物理层替换为以太网的链路层和网络层。由于 协议没有继承以太网的网络层,其报文结构是在原有 报文上增加二层以

17、太网报文头,并没有 字段,因此 数据包不能被三层路由,数据包的传输被局限在二层网第 期陆平静,等:高性能计算和数据中心融合网络研究综述络中路由,只能部署于二层网络 。协议对 协议进行了改进,将 协议保留的 网络层替换为以太网网络层和使用 协议的传输层,并利用以太网网络层 数据包中的区分服务代码点(,)和 显 示 拥 塞 通 知(,)字段实现了拥塞控制,基于 协议承载 ,可部署于三层网络。支持基于源端口号 ,采用等价多路径(,)实现负载均衡,提高了网络的利用率 。基 于 标 准 协 议 栈 支 持 。在标准的网络层和传输层上运行,协议栈提供流量控制和拥塞管理,并且不需要无损以太网络。实现高度路由

18、可扩展的 技术,但需要支持 的特殊网卡来支持在标准以太网交换机上使用 。基于传统以太网承载 是 大规模应用的必然。比较 技术和 技术:技术由于 协议的限制失去了绝大部分 的性能优势,已经逐渐被业界所抛弃;架构生态和应用不断成熟,使用 承载高性能分布式应用已经成为一种趋势。谷歌 架构 年 月谷歌在顶级会议 上发表了 架构方案 ,是一种实验性的数据中心网络架构,将超低延迟作为核心设计目标,同时也支持传统的数据中心业务。芯片架构 基于 协议设计了融合交换和网卡的定制芯片,具有低延迟远程存储访问(,),如图 所示 ,芯片架构包含 的 网卡、网卡、基于信元的 交换芯片以及 协议引擎。当流量进入交换机时,

19、一部分通过 网卡走传统的基于数据包的以太网交换,一部分通过 网卡走基于信元的 交换。芯片中间的 协议引擎负责两种交换单位的转换,将 数据包切割处理为多个信元或者将信元重新组装为 数据包。架构能够实现 以下的 流量拖尾结构往返时间(,)和低于 的跨数百台主机的 执行时间,尾部延迟大幅减少。架构采用全连接的 拓扑,实现了 控制平面和以太网控制平面的融合统一,使数据中心兼容以太网且具有超低传输时延成为可能 。图 芯片架构 阿里高性能网络随着数据中心的资源池化成为主流,以及 等大型分布式系统和应用对网络极低延迟要求,网络延迟成为数据中心网络的性能瓶颈,高性能网络成为数据中心性能发挥的关键。针对此,阿里

20、自主研发了高性能网络,先后经历了三个阶段的演进 :第一阶段(年),大规模落地,阿里云在多个产品中实现 ,通过端到端的流控实现应用性能调优,通过建立端网协同的运营体系,去优先级流控(,)实现有损 ,消除 稳定性风险;第二阶段(年),自研高性能网络协议、高性能网卡和高性能通信库 ,实 现 自 主 高 性 能 网 络;第 三 阶 段(年至今),以应用为中心,通过“阿里云全栈自研 端网融合技术”,实现高性能可预期网络。年 月阿里在顶级会议 上发表端网融合架构 ,提出了要将数据中心网络从“低时延大带宽”演进到“确定性可预期”的目标,开启了确定性数据中心网络研究的新纪元 。阿里云自研高性能网络通过 传输

21、模 式、高 精 度 拥 塞 控 制(,)算法和多路径乱序传输协议,成功解决了大规模网络的扩展性难题,同时可以更好容忍网络异常,并消除了慢输入输出 ()。进一步,容器网络通过单根 虚拟化(,)实现了设备的 虚拟化,并通过开放虚拟网卡(,)流表的硬件加速实现了容器间 通信的极致性能。最后,通国 防 科 技 大 学 学 报第 卷过 技 术 和 网 络 统 一 服 务 架 构(,)实现了网络性能以及在极端场景下的行为可预期高性能网络 ,成为阿里云高性能集群的坚实技术底座。亚马逊高性能网络技术考虑到 协议的延迟问题,以及 需要 优先级流量控制,在大规模网络上会造成队头阻塞、拥塞扩散和偶尔的死锁,不适合亚

22、马逊云服务(,)可扩展性要求,针对超大规模数据中心对现有 网络进行了优化,构建了新的网络传输协议 可扩展的可靠数据报(,),不保留数据包顺序,而是通过尽可能多的网络路径发送数据包,同时避免路径过载。为了最大限度地减少抖动并确保对网络拥塞波动的最快响应,在 自定义 网卡中实施了 ,并添加了新的 优化网络接口,作为 网络功 能 的 扩 展 。由 主 机 上 的 框架通过 弹性结构适配器(,)内核旁路接口使用,允许 应用程序在 公有云上大规模运行,使客户能够在 上大规模运行紧密耦合的应用程序。特别是,支持运行 应用程序和 分布式训练,目前支持多种消息传递接口(,)实现:、和 ,以及 聚合通信库 。高

23、性能网络技术 既能提供 应用程序所需的持续低延迟,同时又能保持公有云的优势:可扩展性强、按需弹性容量、成本效益以及快速采用更新的 和 。融合网络技术发展挑战 大规模部署 面临延迟挑战 技术在 应用上的延迟与 专用网络相比相对较高。对网络的诉求主要集中在高吞吐率和低时延,基于无连接协议的 协议,相比面向连接的 协议更加快速、占用 资源更少,但其不像 协议那样有滑动窗口、确认应答等机制来实现可靠传输,一旦出现丢包,需要依靠上层应用检查到了再做重传,会大大降低 的传输效率。以太网交换机 系列的 以太 网 交 换 机 官 方 延 迟 数 据 是 ,而 交换机 系列 交换机的官方延迟数据是 。网络平均交

24、换延迟 ,相比标准以太网络 的交换延迟有较大提升,但与 网络相比仍有差距,而且 上一代定制网络 交换机延迟大约是 ,“天河 ”的交换机延迟是 。基于 技术的以太网交换机与 交换机以及一些定制的 的延迟性能有一定差距。中高端 依然倾向于采用 专用网络,如 年 月 中,其 系统中,“富岳”“神威太湖之光”“天河 ”均采用定制网络,台系统采用 网络,其他 台采用的是 网络。技术在 应用上实现大规模部署,延迟仍有一定优化空间。数据中心大规模部署 面临安全和性能挑战 如何同时实现低延迟和高吞吐量仍然是一个悬而未决的问题。数据中心为了让上层业务能充分利用 带来的高性能能力,需要正确配置、使用一系列 关键网

25、络技术,并根据业务场景的需求,做相应的调整和优化。首先,中使用 实现无损网络并不能保证低延迟而且可能会带来安全挑战。是一种粗粒度机制,它以端口(或端口加优先级)级别运行,不区分流,当网络发生拥塞时,可能会产生队列并导致拥堵蔓延,进而有不公平现象、受害者流、死锁、暂停帧风暴、慢收现象 等一系列性能问题。队列和 暂停帧都会增加网络延迟,在规模更大、跳数较多的网络中,可能会给网络运营带来较大的稳定性风险,对 传输会带来一些安全挑战。要想让应用真正利用 的高性能优势,设计、使用和配置符合业务场景需求的流量控制、拥塞控制机制,缓解 缺陷,使得在迅速变化的流量模式下仍然能保持低延迟,是数据中心大规模部署

26、面临的重大挑战。其次,无损网络会牺牲部分流 。尽管许 多 数 据 中 心 运 营 商 使 用 或 计 划 使 用 机制,但在数据中心中,和 流之间的缓冲区和带宽共享可能会牺牲一些流量。在当今的 实现中,简单的基于硬件的重传机制依赖于无损传输层。然而,大多数 传统上像互联网一样,使用有损路由器,当队列满时丢弃数据包。对无损网络的要求为在保守的数据中心环境中采用 提出了技术挑战。第 期陆平静,等:高性能计算和数据中心融合网络研究综述 融合网络技术趋势分析 融合网络协议栈设计中融合与分化并存融合网络协议栈设计中融合与分化并存:)融合网络融合趋势主要表现在网络层、链路层和物理层。如 保留了 与应用程序

27、的接口、传输层,使用以太网的链路层、网络层和基于 协议的传输层,并且利用以太网网络层 数据报中的 和 字段实现了拥塞控制的功能,基于 协议承载 。网络层、链路层和物理层融合,可以共用底层硬件和部分设计逻辑,节省面积、存储等资源,和数据中心都可以使用相同的硬件基础设施,从而显著降低成本。)融合网络分化趋势主要表现在传输协议层、用户接口和软件协议栈针对性设计与优化。传输层协议针对特殊需求进行了针对性的设计,例如针对高端 开发了先进的定制化互连系统,为数据中心集成了内部路由器和网卡,实现了基于快速 互联网连接(,)和传输层安全的 ,优化了数据安全传输效率 。此外,不同的网络协议可能要求不同的软件栈设

28、计,针对多网络融合,需要完成软件栈移植。如基于高速互连网络驱动语义,借鉴 网络接口标准,进行消息数据传输服务、数据传输服务、完成事件服务等通信库兼容性封装,采取标准化接口完美支持 、分块全局寻址空间等编程模型;为了支持 服务功能,利用地址主动注册 地址单播查询机制实现地址解析协议(,)功能,并且基于 内核封装接口实现虚拟层叠网络通信机制,提供基于 高带宽通信机制,从而支持基于对象的分布式文件系统 等;基于高速互连网络驱动语义设计网络管理编程接口,采取专用管理报文流控制机制及报文处理流程,简化网络管理部署并增强管理功能鲁棒性。基于在网计算实现融合网络性能加速虽然 和数据中心的网络需求在很大程度上

29、是相似的,但在设计和部署理念、运营理念、服务多样性、协议栈、网络利用率、应用程序编程接口等方面特性需求上仍然存在一定差异 ,主要区别在于协议堆栈的上层。基于智能网卡和交换机的在网计算使用特定于应用程序的协议来融合 网络和数据中心网络,从而实现工作负载定制化,弥补二者之间的差异。数据中心的在网计算 ,一般使用智能网卡和交换机的网络多功能流处理用于网络加速,如 、或 。微软的 和 的 网卡都是作为基础设施支持,用于提高多租户主机的安全性、效率和成本。将 和 的优势用在了网络接口控制器上,实现了 自适应智能网卡,通过公共的存储和片上网络,融合 逻辑、可编程逻辑和嵌入式处理器等不同类型的加速部件以卸载

30、 中不同类型的计算 。美国伊利诺伊大学提出一种 驱动的加速框架 ,可以在数据中心实现微秒级通信延迟 。的在网计算一般通过将聚合通信卸载到网卡和交换机上实现。协议卸载的目标是相对复杂的计算功能,进一步实现计算和网络的融合。如 从 开始通过在网计算加速引擎进行性能加速,提出了聚合通信协处理器的思想,在数据传输过程中处理数据,开发了 协议,通过将聚合通信操作卸载到网卡芯片,有效地减少了 聚合通信时间,网卡数据吞吐量提高了 倍以上 ;释放了大量的 资源,实现了计算和通信的高度重叠,有效地加快了机器学习应用的速度,满足 、和超大规模云数据中心的需求。通过 加速器,实现对 中归约操作的卸载计算,对于 应用

31、中通信密集型操作,数据吞吐率几乎翻倍。高性能计算系统将大规模部署智能网卡,并将应用程序定制的协议卸载到专门的硬件 ,。面向新兴应用需求优化融合网络性能首先,新兴应用需求将改变互联网基本的传输机制。随着云边端网络融合,互联网端到端的设计原则重边缘轻核心,尽力转发模型也无法适配异构终端和未来多样化应用的需求,迫切需要针对大延迟间歇性连通链路、强实时高带宽连接、内容寻址等异构网络环境设计新的应用驱动的传输机制。其次,面向 和数据中心日趋增长的系统规模,内嵌智能计算将增强网络自治自愈能力。网络路由协议收敛时间长、网络配置错误引发振荡、网络故障诊断费时费力,这些问题严重降低了网络可用性和健壮性。内嵌智能

32、计算的网络系统可以挖掘时空多维度规律,从而为网络自动配置、智能诊断、自免疫和自愈合等提供技术支撑。再次,安全大数据分析、云数据中心部署将驱动网络安全能力提升。安全大数据的分析方法将国 防 科 技 大 学 学 报第 卷向基于机器学习和人工智能的“认知”方向演进,实时数据和历史数据、机器学习方法和人的经验将得到有效结合,从而支撑更有效的未知攻击检测,更全面、更深度的安全态势感知,自动化程度更高的实时检测和响应等能力。面向云数据中心多租户环境,采用虚拟化、大数据、机器学习等使能技术以及 和 进行安全隔离,信任根、安全根、安全固件升级、授权容器实现全方位安全防护。进一步,通过 虚拟化可将 用到云上 ,

33、。例如,面向 、大数据分析、应用多租户、高安全、高性能需求,结合 “”架构和 交换机构建云原生超算平台,面向云计算环境提供多租户安全隔离,以及最优的裸金属性能。最后,中使用 保证无损传输,但在大规模数据中心大规模部署 技术,对 传输会带来一些安全挑战 。优化无损网络性能成为业界研究热点与技术趋势 。华为的超融合数据中心网络智能无损技术首创了基于 的网络智能无损技术。另外,随着新一代 网卡片上资源的增加,不依赖于 的 网络成为可能,新一代 网卡在片上实现了更为高效的丢包恢复机制和更好的端到端流控来约束传输中的数据包,从而让有损网络的性能有潜力不输于无损网络,这也将有潜力把 推广到规模更大、跳数更

34、多的网络中 。结论高性能计算网络和数据中心网络多网络融合,从而支撑同一套基础设施高带宽、低延迟运行 、云计算、大数据处理和 计算多领域应用,降低网络成本,是当前互连网络发展的重要趋势。本文对当前融合网络研究现状进行分析。针对 大规模部署 面临延迟挑战,以及数据中心大规模部署 面临安全和性能挑战,提出融合网络的技术发展趋势,包括:融合网络协议栈设计中融合与分化并存 融合网络协议在网络层、链路层和物理层日趋融合,传输协议层、用户接口和软件协议栈针对性设计与优化;基于在网计算实现融合网络性能加速;面向多领域新兴应用需求优化融合网络性能。希望我们所做的工作能为未来在该领域的探索提供有用的指导,供相关系

35、统设计者和研究人员参考。参考文献(),:,():,():,():,:,():高性能计算及其未来需求 中国计算机学会通讯,():,():(),:张云泉,袁良,袁国兴,等 年中国高性能计算机发展现状分析与展望 数据与计算发展前沿,():,():(),():(),:(),:第 期陆平静,等:高性能计算和数据中心融合网络研究综述 ,():,():,:,:,():,():,():,():肖立权,常俊胜,赖明澈,等一种融合网络接口卡、报文编码方法及其报文传输方法:,:(),:,:,黄玉栋谷歌阿里竞逐:开启确定性数据中心新纪元 ():():(),:,块存储性能 :()达摩院达摩院十大科技趋势:端网融合的可预期网络 ():?:():?(),():,:(),:(),:,():,张彭城阿里高性能网络探索与实践 ():():()中国智能网卡研讨会回顾 ():():(),:,:国 防 科 技 大 学 学 报第 卷 (),():软硬件融合用于弹性可扩展的 云优化传输协议 ():():()功能 :(),:(),:,:,:,:,:,:,:,:大规模运行 和 应用程序 :()梦豪工业级大规模 技术杂谈 ():():()

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服