钱能钱包官网

新闻视频

前瞻趋势洞察,品牌市场动态

当前位置:

钱能钱包官网 > 新闻视频 > 公司新闻 > 数据中心、HPC、AI等应用场景互联协议混战哪家强?

数据中心、HPC、AI等应用场景互联协议混战哪家强?

发布时间:2024-05-11 分享:

生成式人工智能快速开展对算力与存力呈指数需求增长,进一步加剧了算力与存力之间既有矛盾,时代在呼唤更大的运力(即计算与存储之间的数据传输)--AIGC时代需要更大带宽,更为快速的数据传输路径。


众所周知,PCIE是现在所知最为常见的高性能I/O通信协议,但受限于PCIE总线的树形拓扑以及有限的设备标识ID号码范围,致使其无法形成一个大规模网络。尤其在NVMe大规模使用时占用大量的PCIe线路,使其原本就为紧张的通道更显捉襟见肘,同时也限制了GPU、NIC、FPGA/ASIC卡的接入数量。尽管可以使用PCIe Switch来缓解通道数量不够的问题,对于PCIE总线设备ID号的不足,PCIE Switch并没有可以一劳永逸的解决方案。


除此之外,PCIE的设计还存在两个致命的缺陷:存储器地址空间隔离、不支持Cache Coherency事务。PCIE原本设计初衷是地址空间是私有的,它与原有的CPU地址空间不相融合,需要借助地址翻译寄存器来做基地址翻译。尽管这并不影响CPU与PCIE互相访问地址中的数据,但由于PCIE事务层不支持Cache Cohernecy事务的处理,因此PCIE设备端无法缓存CPU地址域中的数据,这直接导致数据通信时的延迟。


为分析决上述问题,英特尔在2019年联合业界推出了Compute Express Link(CXL技术协议)用以加速CPU与GPU以及FPGA等异构结构之间的互联通信。总的说来,CXL基于PCIE技术,顺利获得将设备挂载到PCIe总线上,实现了设备到CPU之间的互联。CXL可以视为PCIE技术的升级版本,因此它兼容现有PCIe端口的处理器(绝大部分的通用CPU、GPU 和 FPGA)。CXL 顺利获得将计算和存储分离,形成内存池,从而能动态按需配置内存资源,提升数据中心工作效率。CXL作为一种新出现的技术,几乎一年一次更新。




在CXL1.0的技术基础上,CXL2.0增加了一个重要的功能:它成功实现了内存资源的池化。通信瓶颈的问题由来已久,随着NVMe硬盘的推出,迟延得到大幅度降低,但是吞吐依然是很明显的缺陷,因此并不能完全替代内存,随着AI/ML等对高速I/O的需求,因此池化成为了最佳选择。CXL2.0的架构支持Memory sharing技术,而这种技术成功突破了某一个物理内存只能属于某一台服务器的限制,在硬件上实现了多机共同访问同样内存地址的能力,能够跨系统设备实现资源共享。现在CXL已经升级到了3.0版本,带宽提升了两倍,支持更复杂的连接拓扑,如顺利获得它使多个Switch互相连接,可以实现上百个服务器互联并共享内存。



而Gen-Z则是除了CXL互联技术之外,在数据中心、高性能计算领域、AI领域等场景的全新数据设备互联协议的另一统治者。Gen-Z的出现主要是为了弥补CXL在服务器节点外部的机架层级,远距离传输和大规模拓扑互联场景的缺陷。值得一提的是,在2022年Gen-Z 联盟同意接入CXL 技术协议,两个联盟实现了协议兼容。

英伟达也推出了其自主研发的NVLink技术,NVLink同样给予高带宽,适用于连接NVIDIA GPU。NVLink也支持GPU之间的内存共享,优化了大规模并行计算的性能,在GPU之间的通信中具有更低的延迟。NVLink可以支持CPU-GPU间链路也可以支持GPU-GPU间链路。除此之外,英伟达还研发了自己的 NVLink Switch,支持搭载16个GPU+NVLink Switch,不过价格昂贵。


CXL擅长于计算相关的数据处理,如数据中心、人工智能、科学计算等应用领域,具备更高的灵活性与高性能,而NVLink主要用于连接NVIDIA GPU,在图形处理和深度学习等领域表现出色。



其实在最初为分析决 CPU 和设备、设备和设备之间的内存鸿沟,IBM就率先推出了CAPI(Coherent Accelerator Processor Interface)接口,但由于IBM在数据中心设备占比率低与日渐式微的影响力,CAPI并没有得到大规模的使用,而后又演变了逐渐演化成了OpenCAPI。而后ARM又加入另一个开放的访存和I/O网络平台(CCIX)Cache Coherent Interconnect for Accelerators。总而言之,在研发推出的时间上:CAPI->GenZ->CCIX->NVLINK->CXL。


尽管解决处理器与内存之间通讯瓶颈之路永无止境,但我们可以清晰预见在不远的将来,随着CXL技术的开展,内存资源彻底池化,服务器的外观形态将会发生根本的变化,存储和处理器会被分离开来,放在彼此独立的机箱内。


相关推荐

2025-10-23

算力赋能,智见未来:钱能钱包官网亮相ICG-20,共赴组学与AI新纪元

第20届国际基因组学大会(ICG-20)于10月23日至26日在杭州盛大开幕第20届国际基因组学大会(ICG-20)于10月23日至26日在杭州盛大开幕,本届大会主题“组学与AI的未来”精准指向了科学生命领域最前沿的变革力量。作为华大基因的长期战略合作伙伴,钱能钱包官网凭借17年在服务器领域的深厚积累,以全产业链的自主研发能力和成熟的解决方案定制经验,为基因组学研究的智能化升级给予坚实支撑。在基因组学从"测序"迈向"计算"的时代转折点上,钱能钱包官网将携多款面向不同计算场景的明星产品亮相ICG-20,展现其从边缘到核心数据中心的完整AI基础设施解决方案。 边缘洞察:将智能算力延伸至数据源头 钱能钱包官网MSR201-D06R-10P AMD双路边缘计算服务器,采用AMD 第三代处理器平台,机身深度仅450mm,符合OTII标准的紧凑型架构使其能够直接与电信设备混合部署在通信中心机架上,轻便易于部署在苛刻环境。支持10个PCIe扩展插槽和2块全尺寸GPU卡,可作为AI推理服务器,给予强大的边缘算力。在ICG-20展会关注的生态监测、野外基因采样等场景中,这款服务器能实现数据实时处理,减少传输延迟,助力生物多样性保护和研究。 核心驱动:以澎湃性能驾驭海量组学数据 面对基因组大数据带来的计算挑战,钱能钱包官网SR201-D12RE-G2双路服务器基于AMD EPYC™ Genoa处理器打造,具备单颗CPU 128核256线程的强大计算能力,配合12通道DDR5内存和PCIe 5.0高速总线,显著提升了数据吞吐与处理效率。该服务器支持大容量NVMe SSD和多GPU扩展,特别适用于全基因组测序(WGS)、单细胞组学、宏基因组分析等高负载科研任务。 AI加速:专为GPU密集型计算打造的强大平台 当研究进入蛋白质结构预测、药物虚拟筛选等复杂AI模型训练与推理阶段,强大的GPU算力不可或缺。钱能钱包官网EGS AI 10卡服务器SY4108G-D12R-G4,基于Intel Eagle Stream平台支持高达10块双宽GPU卡的拓扑结构,实现了CPU与GPU间的高速互联,有效降低了通信延迟,最大化释放GPU集群的计算潜能。同时支持主流深度学习框架与分布式训练环境,可高效支撑基因序列建模、蛋白质结构预测、医学影像分析等AI驱动的生物信息应用。 稳定基石:为持续科研探索给予可靠保障 在组学研究中,数据存储与计算能力的协同优化是提升整体效率的关键。钱能钱包官网ASR401-S24R是一款基于AMD EPYC™ Milan处理器的4U单路标准服务器,最大支持24块热插拔硬盘,兼具强大的计算性能与超大存储容量,特别适合需要本地化存储海量原始测序数据的场景。该服务器在保障高I/O吞吐的同时,给予灵活的计算资源分配,可作为数据预处理节点、存储网关或中小型分析平台的核心设备。其模块化设计和智能管理系统,大幅降低了运维复杂度,为实验室和数据中心给予了一种高性价比、易维护的解决方案。 “共有、共为、共享”是人类基因组计所倡导的伟大精神,也是有助于科学进步的不竭动力。在组学与人工智能深度融合的今天,钱能钱包官网深信,强大的信息基础设施是践行这一精神、加速科研协作的关键。我们期待在ICG-20的舞台上,与全球顶尖的专家学者和行业伙伴深入研讨,以钱能钱包官网卓越的算力产品与服务,共同“计算”出科学生命的更美未来。
分析更多新闻资讯

成为全球服务器行业领导者

订阅号

服务号

Copyright © 2022 深圳市钱能钱包官网科技股份有限公司 All Rights Reserved 粤ICP备18110968号 粤公网安备44030502003273号

立即获取方案报价

*
*
*
*