收藏 分销(赏)

2023龙蜥操作系统全面拥抱智算时代分论坛.pdf

上传人:Stan****Shan 文档编号:1239896 上传时间:2024-04-19 格式:PDF 页数:114 大小:17.71MB
下载 相关 举报
2023龙蜥操作系统全面拥抱智算时代分论坛.pdf_第1页
第1页 / 共114页
2023龙蜥操作系统全面拥抱智算时代分论坛.pdf_第2页
第2页 / 共114页
2023龙蜥操作系统全面拥抱智算时代分论坛.pdf_第3页
第3页 / 共114页
2023龙蜥操作系统全面拥抱智算时代分论坛.pdf_第4页
第4页 / 共114页
2023龙蜥操作系统全面拥抱智算时代分论坛.pdf_第5页
第5页 / 共114页
点击查看更多>>
资源描述

1、2023龙蜥操作系统全面拥抱智算时代分论坛智算启航:与龙蜥一起进入 AI 计算新纪元拥抱AI龙蜥社区AI生态建设龙蜥社区 AI SIG owner 阿里云操作系统架构师林演AI 对操作系统的影响面向AI软件栈优化设计AI 技术辅助用户使用操作系统让 AI 参与操作系统生产制作0101面向AI软件栈优化设计AI 南北向生态AI 容器镜像AI 软件栈性能优化AI 网络、AI 存储、MLOpsAI 实践-阿里云市场AI 技术辅助用户使用操作系统Anolis copilotKeentune让 AI 参与操作系统生产制作展望未来,AI 还能做更多020203030404AI 对操作系统的影响操作系统针对

2、 AI 软件栈优化设计AI 技术辅助用户使用操作系统让 AI 参与操作系统生产制作AI 对操作系统的影响AI 时代的操作系统应该长什么样子?面向 AI使用 AIAI Make OS操作系统面向 AI 软件栈优化设计AI 南北向生态兼容操作系统针对 AI 软件栈优化设计镜像形态镜像形态AlinuxAlinux/AnolisAnolis虚机虚机&容器镜像基础设施容器镜像基础设施 ECS Image Build make centerDockerfile repoAnolis OS 8/23分发渠道分发渠道 阿里云市场 虚机镜像龙蜥 CR 容器镜像SBOM 供应链安全平台ECS 虚机镜像AI 生态镜

3、像性能优化镜像Tech-preview 镜像AIGC 体验类镜像主打:性能优化&生态开箱即用云原生容器镜像语言类镜像AI 生态镜像AI 基础镜像分级极简镜像主打:热门生态镜像龙蜥EPAO rpm包 rpm buildrpm 包AI 框架驱动加速器主打:AI 生态软件极简部署AI生态包支持平台 镜像构建平台2.0GPUCPU AI 增强指令DCUDPUCPUGPUDPUXPU操作系统针对 AI 软件栈优化设计PytorchFPGA龙蜥 AI 容器镜像训练Nvidia DriverCUDAother cuda libscuDNNcuBLASCUDA ToolkitNvidiaDOCADOCASer

4、vicesDOCA DriversDOCA libsNvidiaoneapioneDPLoneDNNoneCCLLevel ZerooneMKLoneDALoneTBBIntelONNXruntimeModelscopeTritonZenDNNAOCLAMDopenBlasInt 8 优化ARMDCU DriverAI SDK海光Tensorflow推理ServingMXNetAI 技术栈建设AI 容器镜像操作系统针对 AI 软件栈优化设计优势1:AI 镜像种类丰富优势2:镜像安全扫描优势3:紧随上游发布节奏优势4:社区解决镜像问题及CVE修复优势5:针对不同的平台优化最佳性能优势6:镜像供应

5、链安全/SBOMAI 软件栈性能优化-倚天 Pytorch 推理性能优化操作系统针对 AI 软件栈优化设计ARMv8.6A架构加入BF16扩展,为AI场景埋下巨大潜力:BFMMLA指令3个cycle即可执行32次乘法和加法AEBFCGDH123456781A+2B+3C+4D1E+2F+3G+4H5A+6B+7C+8D5E+6F+7G+8H基础库优化Mem AllocatorOMP计算库优化OneDNNACL算子优化Flash Attn模型量化编译优化Op Fusecpp codegenAI 网络、AI 存储、MLOps操作系统针对 AI 软件栈优化设计DPU/Doca 官方支持未来将支持更多

6、AI生态软件栈Cephfs、Juicefs 等分布式存储能力MLOps 全栈需要的软件和容器镜像AI 实践-阿里云市场操作系统针对 AI 软件栈优化设计AI 技术辅助用户使用操作系统Anolis copilot AI 技术辅助用户使用操作系统Anolis copilot-龙蜥专属的 AI 助手KeentuneAI 技术辅助用户使用操作系统轻豚(Keentune)-龙蜥智能性能调优平台让 AI 参与操作系统生产制作AI 编程助手编写 OS 核心代码AI 参与测试用例生成AI 安全漏洞检测展望未来让 AI 参与操作系统生产制作AI 还能做更多东西向流量性能至上|南北向流量基础设施卸载AI新网络NV

7、IDIA宋庆春The Data Center is The Computer0101020203030404The Spectrum-X Ethernet NetworkThe BlueField-3 SuperNICThe Quantum InfiniBand NetworkThe Data Center is The ComputerTwo Types of AI Data CentersNetworking for AI Data CentersAI FactoriesSingle or few users|Extremely large AI models|NVLink and Inf

8、iniBand AI fabricAI CloudMulti-tenant|Variety of workloads|Ethernet network Cloud Multi-tenant Variety of small-scale workloads Traditional Ethernet network can suffice Generative AI Cloud Multi-tenant Variety of workloads including larger scale Generative AI Traditional Ethernet network for North-S

9、outh traffic NVIDIA Spectrum-X Ethernet for AI fabric(East-West)AI Factories Single or few users Extremely large AI models NVIDIA NVLink and InfiniBand gold standard for AI fabric The Data Center is The ComputerThe Network Defines the Data Center#of GPU in ClusterInfiniBandNVLink+InfiniBandAI FACTOR

10、YTraditional EthernetAI CLOUDNVIDIA Spectrum-XAI Ethernet Fabric101001k100k10k1M+CLOUDAI Workloads Require An AI FabricPeak AI Performance Demands Optimized NetworkingLoosely-Coupled ApplicationsTightly-Coupled ProcessesTCP(Low Bandwidth Flows and Utilization)RDMA(High Bandwidth Flows and Utilizatio

11、n)High Jitter ToleranceLow Jitter ToleranceOversubscribed TopologiesNonblocking TopologiesHeterogeneous Traffic,Statistical Multi-PathingBursty Network Traffic,Predictive PerformanceControl/User Access Network(N-S)AI Fabric(E-W)InfiniBand/EthernetEthernetAI Workloads on Traditional EthernetSub-Optim

12、al for Addressing Needs of AI CloudsAI WorkloadSignificantCongestionIncreasedLatencyBandwidthUnfairnessSpectrum-X Extends Generative AI to Mainstream Hyperscale Cloud End-to-end optimized for cloud AI workloads NCCL-optimized RoCE RoCE adaptive routing over lossless Ethernet Congestion control,multi

13、-tenant traffic isolation Increase from typical 60%to 95%effective bandwidthSpectrum-4SwitchBlueField-3SuperNICBlueField-3SuperNICSpectrum-4 100 billion transistors,TSMC 4N51.2T bandwidth,100G SerDes64 X 800G Ports,128 X 400G ports8K GPUs in Two-TiersEnd-to-end optimized with BlueField-3SONiCCumulus

14、NetQDOCA ServicesAirSAI/SPSDKDOCAMagnum IOBlueField-322 Billion Transistors TSMC 7N16 Arm 64-Bit Cores16 Core/256 Threads Datapath AcceleratorConnectX NICDDR memory interface,PCIe switchThe Spectrum-X Ethernet NetworkEnd-to-End Adaptive RDMA Routing With Lossless Network BlueField-3 sends data into

15、the switch network Spectrum-4 spreads the data packets across all available routes BlueField-3 ensures in-order data delivery Increase from typical 60%to 95%effective bandwidthIncreases effective data throughout by 1.6XNVIDIA Spectrum-X PlatformEthernet AI Performance LeadershipAI Workload1.6XIncrea

16、sed AI Network Performance95%Highest Effective BandwidthNVIDIA Spectrum-X PerformanceEthernet AI Performance Comparison Spectrum-X performance is consistent;Traditional Ethernet shows run-to-run bandwidth variability Results in 1.4X higher LLM performance(2K GPUs)0%20%40%60%80%100%LLM NCCL AllReduce

17、 Spectrum-X EthernetPercentage of Peak BandwidthOptimalPlacementAveragePlacementWorse-CasePlacement0%20%40%60%80%100%LLM NCCL AllReduce Traditional EthernetPercentage of Peak BandwidthOptimalPlacementAveragePlacementWorse-CasePlacementJitterGenerative AI Cloud based on NVIDIA Spectrum-X platform 256

18、 NVIDIA HGX systems,2,048 Hopper GPUs2,560 BlueField-3 SuperNICs80+Spectrum-4 Ethernet switchesPeak AI performance of 8-ExaflopsSpectrum-X Generative AI CloudHyperscale Generative AI Full Stack Performance Optimization PlatformUsing Digital Twin Build AI CloudThe BlueField-3 SuperNICBlueField-3 Supe

19、rNIC Accelerate AI ComputingPowered by BlueField-3 Networking Platform and DOCA Software FrameworkBlueField-3 SuperNICNetwork accelerator for powering generative AI cloudsPeak AI Workload EfficiencyBest-in-class RoCE for accelerating AI computingConsistent and predicable performanceSecure Cloud Mult

20、i-TenancyMulti-tenant networking at massive scaleAccelerated network virtualizationPower-Efficient,Low-Profile DesignSub-75 watts,HHHL PCIe form factorBroad OEM server supportExtensible InfrastructureFull,multi-architecture compute programmabilityComprehensive SDK and development toolsL3 BGPPaths to

21、 Multi-Tenant AI CloudBlueField Provides Tenant Isolation with EVPN VXLAN and/or SDNController-less EVPN VXLANL3 to the host(FRR)on BlueFieldController-based SDNOVS/OVN on BlueFieldL3 BGPL3 BGPL2 MLAGOVN SDNBlueField-3Spectrum-4BlueField-3Spectrum-4SPECTRUM-X AI CLOUDSPECTRUM-X AI CLOUDSuperNIC Prog

22、rammabilityPervasive,Multi-Architecture Infrastructure Compute Platform16 cores general-purpose processorCoherent Mesh architectureLast level cache(LLC)DDR5 memory subsystemBase OS and microservicesOptimized for:Control path applications,general-purpose applicationsSingle flow performanceBlueField-3

23、 ProgrammabilityPervasive,Multi-Architecture Infrastructure Compute PlatformMaximum PerformanceEase of DevelopmentProgrammable 64-128 packet processorMulti-staged,highly parallelizedFlow-based classification and action engineRDMA,crypto,time-based schedulingOptimized for:High-performance packet proc

24、essing applications,advanced packet handlingNVIDIA DOCANVIDIA DOCAUNIFIED SOFTWARE ARCHITECTUREUNIFIED SOFTWARE ARCHITECTURE16 hyper-threaded cores I/O and packet processorReal-time OSOptimized for:IO-intensive applications,high insertion rate,network flow processing,device emulation,collective and

25、DMA operationsArmDATAPATH ACCELERATOR(DPA)ACCELERATED PROGRAMMABLE PIPELINENVIDIA DOCA StackComprehensive Acceleration SDK,Compilers,Services,and ToolsOpen foundationSecure,performance acceleratedContainerized services Anolis(龙蜥)CentOSDebianUbuntuOthersB3140H SuperNICNetwork Accelerator for AI Compu

26、te FabricSpecificationsNetwork Speed1 x 400Gb/sInterface Type QSFP112Programmable Compute8 x Arm A78 2.0Ghz Memory16GB DDR5Host InterfaceGen5 x16TDP Power w/Active Cables1GB容量,适用于许多最流行的工作负载 8通道DDR5 总成本(TCO)优势 更少的DDR DIMM条 与普通至强DRAM兼容*相对性能,或受TDP与CPU核心数影响至强至强内存带宽篇:内存带宽篇:CXL内存内存 Compute Express Link 总线

27、 基于PCIe 5.0 PHY基础架构CXL.IO 基于PCIe的-发现、寄存器访问、中断、初始化、I/O虚拟化、DMACXL.Cache 支持设备对主机内存进行缓存,由主机处理一致性管理CXL.Memory 内存访问协议,主机管理(一致性)连接设备的内存,类似于主机内存。第四代至强可扩展处理器支持CXL1.1规格 内存扩展 额外NUMA节点,提升内存总带宽xFasterTransformer开源项目开源项目 Apache license 英特尔至强平台特别优化 英特尔硬件特性加速 支持FP16/BF16/INT8权重格式和计算 支持兼容Huggingface等主流的模型格式:OPT,Llam

28、a,Llama2,ChatGLM,ChatGLM2,Falcon等 具有良好的跨节点可扩展特性欢迎点赞https:/ 2,LLAMA,LLAMA 2(small models),OPTData type:BF16,FP16,BF16+FP16,BF16+INT8(weight only),INT8(weight only)Distributed inferenceModel:Baichuan,LLAMA 2-70BData type:INT8(A8W8)Features:Low-level APIContinuous batching(API)Continuous Batching(full

29、support)Optimization(AMX_FP16)Other ecosystem compatibilitySpeculative Inference2023 Q32023 Q42024 Q1xFT开发计划开发计划xFT软件架构软件架构 IG:LLM专用Intrinsic GEMM 库 oneCCL:英特尔高性能异构通信库 oneMKL:英特尔高性能计算库,可用于批量矩阵运算 LLM ops/layers:支持分布式多机计算的LLM算子 LLM Models:支持学术界及工业界流行模型,并且有算子融合优化。高性能 Flash Attention 优化实现 数据类型转换/数据排布算子融

30、合 充分利用AMX/AVX512 硬件特性加速计算 指令级GEMV/GEMM kernel优化 统一内存分配管理 并行可扩展性 支持Tensor Parallelism并行 使用SharedMem/oneCCL异构集合通信库 良好的兼容性 C+高性能推理库,作为后端引擎易于集成进框架xFT之特点之特点:高性能高性能LLM推理平台推理平台性能数据性能数据 IntelXeonCPU Max LLM PerfLearn more:https:/ 十余年操作系统研发历史,覆盖X86、ARM、POWER等所有主流架构规模化专业团队规模化专业团队 350+KOS研发维护团队 全球第五,国内首个通过unix

31、03认证的操作系统易维护、高效稳定易维护、高效稳定 百万级装机量可靠性验证无缝连接InService云端运维服务 具备成熟的Centos迁移和替换能力安腾架构 集成多层次非对称资源调度技术 显著提升操作系统性能 构建内核级操作系统稳定性和高可用特性 通过等保三级认证V1-V22013年2014年2017年X86、ARM架构 2022年发布龙蜥衍生版本V5.8 兼容百余款整机、存储、网络、安全设备 人工智能、虚拟化、云原生场景增强 应用高可用、RAS增强、全栈可信 全天候运维、高效远程运维X86、Power架构 自研内核强制访问控制框架 通过等保四级认证 服务器操作系统RAS增强 集成故障管理工

32、具、性能优化工具2023年2009年V3-V4V52020年浪潮信息KeyarchOS全面预装、广泛落地KOS在浪潮信息内部各个产品线全面预装360全方位软硬件全方位覆盖从研发到售后全流程覆盖快速高效100+网点全国覆盖4小时快速上门服务源晓服匹配率超92%一触即达TOP5高频问题大模型智能问答1000+人专业化服务团队、一体化售后医疗能源教育金融企业通信系统安全加固安全组件系统迁移自动化迁移工具可信组件全栈可信TPMTCM运维监控-InManage智能化监控运维平台性能调优软件性能调优工具异常定位软件系统故障分析KOS在教育金融能源等关键行业广泛应用全面预装全面预装订阅服务订阅服务广泛落地广

33、泛落地释放多元加速器算力异构加速器高效协同软硬协同优化多元异构是整机系统算力需求的关键通用处理器86通用处理器Arm通用加速处理器专用加速芯片ASIC可编程芯片神经拟态芯片仪器仪表WIFI蓝牙摄像头GPS传感器运动检测器生产线控制器警报器多元异构部件多样化多元异构算力,软硬协同升级业务特征I/O特征算法特征性能、能耗、扩展性通用芯片专用芯片亲和性/系统参数/配置业务软件调度/内存管理/IO精细化操作系统BIOS/BMC/CPU/PCIE硬件整机GPU/DPU/DSAAMX/DSA/QAT处理器高级特性GPU/DPU/DSA处理器与加速器的协同异构加速器之间的协同专用异构加速器浪潮信息Keyar

34、chOS基于英特尔SPR的软硬协同优化在Nginx服务中验证了英特尔QAT网络加速效果,Nginx服务性能提升最高超过15倍KeyarchOS基于英特尔SPR高级硬件特性完成软硬协同优化,在大数据场景下数据分析、AI深度学习等场景性能均有显著提升;支持在OpenStack、K8S等云化场景下自动化部署,部署效率得到大幅提升。利用IAA加速设备通过执行dd命令向zram进行数据写,数据写操作带宽提高约165%利用英特尔DSA加速内核内存预清零方案,虚拟机启动速度可提升34倍开 启 RDT 保 护 后,可 将NoiseNeighbor干扰下的Redis性能恢复到原来的95.45%浪潮信息Keyar

35、chOS英特尔处理器SPR介绍旨在为人工智能(AI)、数据分析、存储和科学计算方面快速增长的工作负载提供性能加速。通过内置加速器和软件优化,已被证明在真实场景下的目标工作负载上实现出色的性能功耗比。高级矩阵扩展AMX从一维向量发展为二维矩阵,最大限度地利用计算资源,提高高速缓存利用率,避免潜在的带宽瓶颈。图像识别推荐系统机器/语言翻译强化学习自然语言处理媒体处理与分发媒体分析英特尔处理器AI加速能力的发展历程第一代英特尔至强可扩展处理器,英特尔高级矢量扩展512技术,即AVX-512指令集第二代英特尔至强可扩展处理器,提升INT8模型的推理性能。第三代英特尔至强可扩展处理器,将BFloat16

36、添加到DL Boost指令集中。第四代英特尔至强可扩展处理器,支持INT8和BF16这两种业界广泛应用的数据类型。英特尔SPR处理器的AMX加速引擎TILE二维寄存器+TMUL(Tile Matrix Multiply Unit)每个TILE为16行64字节列,总大小为1KiB/寄存器,整个寄存器文件为8KiB。TMUL由一组乘加单元的网格组成,用于TILE操作。TMUL操作的矩阵规模由TILECFG预先配置。AMX三类指令:配置指令、TILE处理和TILE操作。AMX TILE =16行 64字节(512)16x32 BF16 AMX-TMUL:1024 OPS/cycle/core 16x

37、64 INT8 AMX-TMUL:2048 OPS/cycle/coreAMX加速引擎的工作原理KeyarchOS对AI加速的支持英特尔至强处理器SPR(AMX)KeyarchOS(支持Intel AMX)Tensorflow、Scikit-learn、业务模型硬件OSAI框架应用KOS基于龙蜥5.10内核,支持Intel AMXKOS 针对人工智能应用场景,提供相应的软件解决方案,并适配了主流的人工智能框架。和Intel紧密软硬协同,优化使能关键特性KeyarchOS使能AMX加速AI的案例Stable diffusion模型:以文生图a photo of an astronaut ridi

38、ng a horse on mars支持intel AMXHardware:1 socket 48 core SPRModel:stable-diffusion-2-1-base,text2image,512x512 imageSteps:10KeyarchOS使能AMX加速AI的案例Confidential AI:保护数据隐私的人工智能之旅演讲人:朱运阁(英特尔 高级软件工程师)马丁(阿里云飞天实验室 开发工程师)Intel机密计算技术介绍0101Confidential AI设计实现02020303基于TDX构建Confidential AIIntel 机密计算技术介绍金融Finance出

39、行Travel零售Retail医疗Healthcare通信Telecom教育Education购物Marketing制造ManufacturingArtificial Intelligence机器学习深度学习自然语言处理生成式AI计算机视觉Artificial IntelligenceAI在日常生活关键领域的使用AI实现和使用中的安全挑战数据隐私保护基础架构可信安全数据完整性保护数据机密性保护机密计算助力保护AI安全机密计算定义:通过在基于硬件、经证明的受信任执行环境中执行计算来保护正在使用的数据。机密计算联盟(CCC)机密计算可以减少对基础计算平台的信任需求,减少攻击面。可防止在计算期间未经

40、授权访问或修改应用程序和数据。可提供数据完整性、数据机密性和代码完整性的保证,从而始终保护数据。Intel 机密计算解决方案:SGX 和 TDXDedicated Security ServiceSW Inside Trust BoundaryHWVMMApp&Library OSDataGuest OSHWHost OSAppDataFunctionPurpose-built SGX App-level isolationTypical SGX App-level isolationAppsDataAppDataTDX HW-isolated VMs/Containers-level iso

41、lationTDX-enlightened Guest OSSimplified KernelTDX Confidential VMTDX CoCoHWVMMHost OSAppsDataAppDataTDX Connect+Devices HW-isolated VMs/Containers-level isolationTDX-enlightened Guest OSSimplified KernelTDX Confidential VMTDX CoCoHWVMMHost OSCC DevicesCC DevicesFlexible CloudInfrastructure通用计算异构计算基

42、于TDX构建Confidential AIIntel TDX 技术增强AI隐私防护将 TDX 与 LLM 融合,有助于更好地保障数据在 LLM 模型训练和推理过程中的保密性。大语言模型(Large Language Mode,LLM)作为AI领域的典型应用,它的兴起与应用也带来了诸如数据泄露、数据滥用、模型被攻击和知识产权被窃取等一系列数据隐私安全风险和挑战。Intel TDX基于软硬件组合,创建虚拟机层级的安全执行环境,能够更好地确保计算和数据处理机密性和完整性。其关键机制为:安全隔离通过硬件加密和内存隔离等硬件隔离技术,将敏感数据和关键代码与其他应用及操作系统相隔离,从而确保它们即使在系统

43、其他部分被攻击或受到恶意软件影响时也能够得到更好的保护。安全验证在启动过程中进行身份验证和完整性检查,确保只有经过授权的代码和数据可以在其中运行,以此防止恶意软件或未经授权的访问。安全执行环境提供包含加密算法、安全协议和密钥管理等防护功能的执行环境,用于处理敏感数据和执行关键算法,以增强数据在执行过程中的保密性和完整性。训练服务TDX 中的数据处理都处于加密状态TDX可以与机密GPU结合,扩展可信执行环境,进一步提升计算算力推理服务TDX则可保护用户输入和模型结果的隐私其硬件隔离和安全验证机制可以更有效地防止未经授权的访问和攻击,增强模型运行时的安全性数据的机密性和完整性保护检索增强生成(Re

44、trieval-Augmented Generation,RAG)通过在生成回答过程中引入检索组件,从已知的知识库中检索相关信息,并将这些信息与LLM中的自然语言生成能力结合,从而提高问答生成的准确性和可靠性。可用于构建企业级问答、文摘生成、语义推理等。基于Intel TDX构建Confidential AI(LLM)在线推理服务Confidential AI设计实现构建端到端的AI数据全链路隐私保护Confidential AI推理客户端TEE网关TEE网关推理服务(如RAG)ConfidentialData HubAttestation AgentKMS服务OSS服务Attestation

45、 服务终端用户Workload Provider审计者模型提供者配置Attestation策略上传加密模型上传模型解密key拉起部署推理服务发起推理请求收集evidence验证evidence验证对端evidence建立基于RA的可信安全信道获得推理结果Confidential VM用户终端用户可信域Confidential AI-Confidential Data HubConfidential VMKata-AgentApp Container存储插件OSSEBSABS秘密管理插件KMSVaultKBS块存储对象存储存储服务(OSS)KBS密钥管理服务(KMS)秘密管理服务Key Vaul

46、tAttestation AgentAttestation 服务基本服务镜像解密Sealed Secret镜像验签安全挂载获取机密资源Restful/ttRPC/gRPC用户可信域Confidential Data Hub用户可信域基于远程证明,明文数据全生命周期位于可信执行环境Confidential DataHubConfidential AI 用户数据安全-TEE 网关TEE网关Attestation Agent终端用户推理请求和结果验证对端evidence基于RA的TLS握手TEE网关推理客户端Attestation 服务获取Evidence建立基于TLS的IP层隧道推理数据和推理结果

47、用户可信域用户终端TEE云上基于远程证明的安全信道,保护数据传输链路安全用户可信域TEE网关Confidential AI 远程证明安全-OAAS龙蜥公共远程证明服务12.18号下午安全场将详细介绍OAAS龙蜥机密计算远程证明服务by 龙蜥社区机密计算SIG Maintainer 张家乐-DataCS简介兼容龙蜥的云原生大模型数据计算系统拓数派产品市场总监吴疆吴疆深耕云计算和数据库行业十余年拓数派(Openpie)产品市场总监毕业于清华大学计算机系,先后在IBM,EMC,Pivotal,VMWare参与多个云平台和数据库项目0101拓数派简介DataCS简介0202DataCS与龙晰03030

48、1.拓数派简介拓数派中国总部与全球分支机构拓数派中国总部与全球分支机构杭州拓数派科技发展有限公司(又称OpenPie)是立足于国内,基础数据计算领域的高科技创新机构。作为国内云上数据库和数据计算领域的引领者,拓数派以“Data Computing for New Discoveries”数据计算,只为新发现为使命,致力于在数字原生时代,运用突破性计算理论、独创的云原生数据库旗舰产品以及之上的算法和数学模型,建立下一代云原生数据平台的前沿标准,驱动企业实现从软件公司到数据公司再到数学公司的持续进阶。拓数派旗下大模型数据计算系统(PieDataComputing System,缩写DataCS),

49、以云原生技术重构数据存储和计算,一份存储,多引擎数据计算,全面升级大数据系统至大模型时代,使得自主可控的大模型数据计算系统保持全球领先,成为AI的基础科技底座的同时,开启AI技术的新范式。DataCS旨在助力企业优化计算瓶颈、充分利用和发挥数据规模优势,构建核心技术壁垒,让大模型技术全面赋能行业AI场景应用,助力合作伙伴成功,为企业创造更大的商业价值。全 球 数 据 计 算 系 统 引 领 者归国后在美国500强EMC旗下创建了Greenplum中国,随后在随后在20132013年在年在PaulPaul MaritzMaritz(届时届时V VMMwareware CEOCEO,曾任微软曾任微

50、软WindowsWindows平台总负责人平台总负责人)和和ScottScott YaraYara的支持下创建了的支持下创建了PivotalPivotal中国中国。卡内基梅隆大学(CMU)上海校友会主席、1024Foundation 创始人冯雷 Ray Von以浙江物理奥赛银牌进入北大物理学院以浙江物理奥赛银牌进入北大物理学院,在北大彼时“理科实验班”(现元培项目)浸染在数学、物理、计算机和经济学,获得物理经济学双学位。(北大报道)研究生就读卡内基梅隆大学。(InfoQ报道)归国前就职于美国Oracle公司数据库服务器技术部门,是是OracleOracle CloudCloud Control

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 研究报告 > 其他

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服