近日,人工智能云服务商CoreWeave宣布推出CoreWeave AI对像存储服务,该解决方案专为AI工作负载而构建,并通过本地对象传输加速器(LOTA)技术提供支持,实现单个数据集在全球任何地点即时访问,无需任何出口费用或请求/交易费用限制其使用方式或地点。高性能的AI训练依赖于GPU计算集群附近的大型数据集,传统云存储未专门针对这种级别的吞吐量和灵活性设计开发人员受到延迟、复杂性和成本的制约。

作为人工智能必不可少的云平台,在每一个层面上,每一个决策都旨在优化效率和性能。“CoreWeave联合创始人兼首席技术官 Peter Salanki说:“现在,我们正在从头开始重新考虑存储系统。我们构建了一个全新的架构来打破地理和边缘的局限,使开发者能够自由地进行创新,并避免摩擦或隐藏成本。这是真正改变人工智能工作负载运行方式的游戏规则转变。””
与仅限于IT基础设施的一部分的传统对象存储不同,CoreWeave AI对象存储凭借其卓越性能而区别开来,并且随着AI工作负载的增长扩展其容量。该服务基于分布式GPU节点的全球分布网络确保了在云和本地区域、私家侦探,侦探公司,调查公司,查人找物,商务调查,出轨外遇调查,婚外情调查,私人调查,19209219596任何地区都能保持高吞吐量的同时,还提供了从多个数据中心或设备上复制数据的能力。 私有互连、直接云对等互连及400GBps端口确保了从开发人员到全球工作的所有用户都可获得相同级别的GPU性能,并避免处理数据蔓延或资源密集型数据复制。
Core Weave 还推出了三个基于使用情况的自动定价层,为现有的客户典型AI工作负载提供了超过75%的成本节省。新计划中没有出口费用,请求或层次费用,为客户带来了更大的灵活性和透明度,并确保成本直接与使用的程度保持一致。同时,它还能一直保持Core Weave在行业里无可比拟的性能以及它的简单性。这使得Core Weave对象存储成为业界最具性价比、对开发者最友好的存储解决方案之一。
Replicate 的使命是帮助开发人员轻松运行并共享大规模机器学习 (ML) 模型,这种能力需要跨环境的快速灵活数据存储。“在 Replicate 首席工程师 Morgan Fainberg 看来,这依赖于 CoreWeave 在 CoreWeave AI 对象存储中的云功能。通过依靠单个数据集,我们可以支持模型无论部署在哪里,而无需私家侦探,侦探公司,调查公司,查人找物,商务调查,出轨外遇调查,婚外情调查,私人调查,19209219596复制开销或出口成本。此外,这确保了我们的用户始终能够以高性能访问他们创新所需的数据。”
今天的公告是CoreWeave软件生态系统的最新进展。上周,该企业宣布推出ServerlessRL,这是一个公开可用的托管式强化学习功能。这是其多元化和开放的人工智能生态系统的重要一步,公司的技术团队始终设定新的性能标准。这些标准由CoreWeave发布的行业领先的MLPerf人工智能工作负载基准测试和SemiAnalysis ClusterMAX系统中的白金评级证明。
CoreWeave致力于重新定义人工智能所需的动力方式。该公司的云计算平台将高性能计算与构建者大规模开发、测试和部署人工智能所需的软件层结合起来。 CoreWeave继续通过有机创新扩大其能力,并通过Core Weave Ventures为创始人们提供资本和计算支持。战略收购也包括Open Pipe,旨在推进强化学习;权重偏差的模型迭代、实验跟踪以及推理,以及即将收购的Monolith AI,该公司将机器学习应用于复杂的物理和工程挑战。
顶: 6398踩: 88957





评论专区