适用于大规模AI训练和推理的一站式数据存储解决方案──数百PB的多层式解决方案提供能支持可扩充式AI工作负载所需的庞大数据容量和高性能数据带宽
加利福尼亞州圣何塞2024年2月2日/美通社/ --Supermicro, Inc.(纳斯达克股票代码:SMCI)作为AI、云端、存储和5G/边缘领域的全方位IT解决方案制造商,推出适用于人工智能(AI)和机器学习(ML)数据存取的完整优化解决方案,覆盖从数据收集到高性能数据传输的各个环节。此全新解决方案能通过将GPU数据传输管道完全利用使AI价值实现时间最小化。在AI训练方面,该解决方案可收集、转换大量PB级原始资料,并加载到企业AI工作流程管道。这种多层式Supermicro解决方案通过证实可在生产制造环境中为人工智能运营(AIOps)和机器学习运营(MLOps)提供PB规模级数据量。Supermicro的多机柜级解决方案旨在降低落地风险,让组织能更快速地训练模型,并迅速将处理后的数据应用到AI推理。
Supermicro总裁兼首席执行官梁见后(Charles Liang)表示:通过由每机柜20 PB高性能快闪存储容量所驱动并搭载四个专为应用优化的NVIDIA HGX H100 8-GPU的气冷服务器或搭载八个NVIDIA HGX H100 8-GPU的液冷服务器,客户能以机柜规模加速AI和ML应用运行。此项解决方案能为每个存储丛集提供270 GB/s的读取吞吐量和390万IOPS做为最低部署,并轻松扩大至数百PB的规模。借由使用具有PCIe 5.0与E3.S存储装置,以及WEKA Data Platform软件的最新Supermicro系统,这项通过场域测试的机柜级解决方案将可为使用者带来AI 应用性能的大幅提升。有了此项适用于AI 训练的全新存储解决方案,客户将能完全发挥我们最先进GPU服务器机柜级解决方案的使用潜能,进而降低总拥有成本(TCO)并时提高AI性能。
为了使GPU有成效地运行,具备低延迟、高带宽数据处理性能的GPU服务器必须要能存取用于大规模AI 训练运行的未结构化PB量级数据。Supermicro拥有基于Intel和AMD技术的广泛存储服务器产品组合,是AI管道必不可少的要素。这些产品包括Supermicro Petascale All-Flash存储服务器,其中每部服务器拥有983.04* TB的NVMe Gen 5快闪数据容量,可提供高达230 GB/s的读取带宽和3,000万IOPS。本解决方案还包括适用于容量物件层级并具备90个存储硬盘槽的Supermicro SuperServer存储服务器。全球客户已可取得此经过测试的完善解决方案并用于ML、GenAI和其他复杂计算的工作负载。
WEKA总裁Jonathan Martin表示:具高性能和高度快闪数据容量的Supermicro PB级All-Flash存储服务器能与WEKA的AI原生数据平台软件完美互补搭配,并为现今的企业AI客户提供空前的速度、规模和简易性。
Supermicro将在一场网络研讨会中介绍其优化存储架构的更多细节。若要参加该场于2024年2月1日举办的直播网络研讨会,或观看Supermicro和WEKA的网络研讨会回放,请浏览:
*原始值是基于30.72 TB的厂商原始基本容量。TB是以10为基础的十进制。30.72 TB E3.S SSD的取得需视厂商供货状态而定。
Supermicro(纳斯达克股票代码:SMCI)为应用优化全方位IT解决方案的全球领导者。Supermicro的成立据点及运营中心位于美国加州圣何塞,致力为企业、云端、AI和5G电信/边缘IT基础架构提供领先市场的创新技术。我们正转型为全方位的IT解决方案制造商,提供服务器、AI、存储、物联网、交换器系统、软件及服务,并供应先进大量主板、电源和机箱产品。这些产品皆由企业内部团队设计及制造(在美国、亚洲及荷兰),通过全球化运营实现极佳的规模与效率,并借运营优化降低总体拥有成本(TCO),以及经由绿色计算技术减少环境冲击。屡获殊荣的Server Building Block Solutions®产品组合让客户可以从极多元形式的系统建构中自由选择具高度弹性、可重复使用的建构组件,使工作负载与应用达到最佳效能。这些建构组件支持各种外形尺寸、处理器、内存、GPU、存储、网络、能耗和散热解决方案(空调、自然气冷或液冷)。