智能算力新选择,宝德自强®AI训练服务器PR410EI全新上市

时间:2023-10-10来源:本站

近日,工业和信息化部、中央网信办、教育部、国家卫生健康委、中国人民银行、国务院国资委等六部门联合印发《算力基础设施高质量发展行动计划》提出到2025年,算力规模超过300 EFLOPS,智能算力占比达到35%,东西部算力平衡协调发展。


随着大数据、云计算、人工智能等技术的成熟与在各行各业的应用,AI服务器作为算力基础设施之一,由于具备图形渲染和海量数据的并行运算等优势,能够快速准确地处理大量数据,市场价值日益凸显。如今,以ChatGPT为代表的大模型开发和应用取得巨大进展,其训练和推理需要大算力支持,对AI服务器算力需求出现大幅提升。


面对汹涌而来的AI浪潮,宝德计算有备而来。作为中国AI服务器市场的TOP3和中国领先的计算产品方案提供商,宝德抢抓大模型产业机遇,依托于自身近20年的技术实力和市场经验,完整布局了AI训练、AI推理、AI边缘、智能小站以及AI集群等全栈算力产品解决方案。近日,宝德再次整合AI的技术和能力,重磅推出了宝德自强®AI训练服务器新产品PR410EI,它基于第四代英特尔® 至强® 可扩展系列处理器,利用超强算力加速大模型开发和应用,助力开拓更多全新的AI应用场景。




超强AI算力,满足大算力需求

宝德自强®AI训练服务器PR410EI采用2颗英特尔Sapphire Rapids处理器,在4U空间内提供0.65PFLOPS FP32/2.5PFLOPS FP16的超强AI算力,具备卓越的计算性能和数据处理能力,可轻松满足大模型训练的大算力需求。同时,其内存最大支持32个DDR5内存插槽,最高4800MT/S,使得数据传输速度更快、更稳定,从而提高了整体计算效率。


高速网络带宽,实现大模型高效训练

在大模型训练过程中,数据传输的速度和稳定性至关重要。PR410EI的高速网络带宽可以确保数据快速传输和计算的高效协同,从而实现大模型的高效训练。它具有8*64G、1.6TB/s HBM,提供392GB/s的节点内互联和8*200G Roce的跨节点互联,可以实现高效的数据传输和计算协同。同时,其PCIe插槽全部支持5.0,通讯带宽翻倍,有助于全面提升大模型的训练效率,加速大模型技术的迭代升级和落地应用。


以基于256台训练服务器搭建的Pod 集群为例,PR410EI系统峰值AI算力可达641PFlops FP16,跨POD任意两节点互联带宽达200GB/s,16个POD和2048颗NPU使得系统具有良好的扩展性,成为支撑大模型系统工程建设的有力工具。


此外,在追求高性能的同时,宝德自强®AI训练服务器PR410EI还注重节能减排。它配置高效节能电源、动态冷却机制,还采用智能散热系统,根据热关键器件温度综合调节风扇转速,能够有效降低能耗和碳排放。它可广泛适用于大模型训练、智慧城市、教育科研、智慧金融、互联网、运营商等需要大算力的应用场景,深化赋能行业应用,助力加速更多AI应用落地。


当前,我国智能算力规模不断攀升,AI产业将迎来重大的市场机遇。宝德将继续发挥优势,创新研发,携手业界卓越伙伴不断丰富多元化的AI算力产品和解决方案,促进人工智能与实体经济融合发展,助力开拓更多全新AI应用场景,加速各行各业数字化、智能化进程,为数字经济高质量发展注入更多新动能。


热门推荐