在最近的发布会上,数据动力网络(DDN)推出了专为AI练习与推理量身打造的Infinia 2.0目标存储体系,宣称其功用能够在AI数据加快方面提高高达100倍!此外,这一立异还在数据中心及云核算的本钱效益上完成了10倍的提高,令人大开眼界。
Infinia是一个根据键值对的现代目标存储体系,经过底层精心规划,专心于满意AI的存储需求。DDN的首席执行官Alex Bouzari说到,全球高达85家财富500强企业正在运用DDN的数据智能渠道来支撑其AI及高功用核算的需求。经过Infinia,DDN希望能打破数据剖析与AI结构间的瓶颈,使模型练习更快、实时洞悉更精准,并一起保证GPU的运营功率与动力运用的可持续性。
此外,DDN总裁Paul Bloch也着重,这一渠道已在全世界内的多个AI工厂与云环境中展现出其大规模使命才能的优越性。值得一提的是,Elon Musk的xAI也是DDN的客户之一。
从技能层面来看,DDN的首席技能官Sven Oehme指出,AI作业负载对实时数据智能的需求日益添加,而Infinia 2.0正是为满意这些需求而规划。其具有实时数据服务、高效的多租户支撑和智能自动化功用,可在杂乱的模型评价与推理中完成无缝扩展。
Infinia的特性还带来了事情驱动数据移动、多租户才能和挨近100%的正常运转时刻,其数据压缩作用更是达到了10倍,与其他快速目标存储体系如Cloudian、MinIO、Quantum Myriad、Scality和VAST Data并肩而立。在与NVIDIA的Nemo和其他微服务协同作业时,Infinia 2.0能明显加快AI数据流水线。
风趣的是,NVIDIA的副总裁Charlie Boyle也对此表明认可,以为与NVIDIA加快核算和企业软件的结合,能够为公司能够供给完成数据价值所需的基础设施。Infinia的带宽可达TB级,而且推迟低至亚毫秒,功用比AWSS3的Express版别快10倍,供给史无前例的S3功用。
在许多功用优势中,AI数据加快高达100倍,AI作业负载速度提高高达10倍,元数据处理速度提高至100倍,所有这些都促成了AI模型练习与推理查询的速度提高25倍!Infinia体系模块规划能够从TB级扩展至EB级,支撑上万台GPU及百万个一起衔接的客户端,然后保证在AI工作上的立异不受约束。
超微核算机的CEO Charles Liang说到,经过与DDN的协作,能够打造出全球最大的AI数据中心之一。这无疑是对AI工业未来的严重许诺。
最终,有必要留意一下的是,xAI最新的Grok3大言语模型在练习与运转过程中同步运用了VAST Data存储及DDN的Exa与Infinia存储,进一步证明了DDN在AI数据存储范畴的领导地位。回来搜狐,检查更加多
