"DDN消减GPU私家侦探,侦探公司,调查公司,查人找物,商务调查,出轨外遇调查,婚外情调查,私人调查,19209219596浪费,AI推理依赖KV缓存性能优化

 人参与 | 时间:2026-03-23 06:29:43

人工智能和数据智能解决方案公司DDN宣布了新的性能基准,显示该公司Infina平台通过优化人工智能的能力,可以减少GPU资源的浪费,同时以业内最快的速度实现首次令牌时间。

DDN 通过行业领先的 KV 缓存性能消除 GPU 浪费,用于 AI 推理

随着人工智能模型从简单聊天机器人发展成为能解析数十万个句子上下文复杂推理系统的复杂推理系统组织正面临着新的经济挑战:每一次交互中的延迟都可能导致效率低落收入下降以及基础建设无法得到有效利用形成恶性循环

DDN首席技术官Sven Oehme表示:“每当您的AI系统重新计算上下文而不仅仅是缓存上下文时您就会支付GPU税——这相当于浪费了可能加速结果或提供更多服务的周期”。借助DDN Infinia,我们能够把成本中心转变为性能优势。

我认为最重要的事情是——人工智能是一种智能业务DDN为我们提供了充分利用我们的GPU和存储智能并以高度可扩展的方式实现的能力,Indosat Ooredoo Hutchison总裁兼首席执行官Vikram Sinha说。它确实帮助我们在TCO层面上做到了这一点,这非常具有竞争力我们选择DDN的原因就是如此

经济已经深刻影响了人工智能推理。NVIDIA 等人工智能领导层表示代理类的人工智能工作负载比传统模型需多出至少一倍计算能力。随着上下文窗口从 128K 到 1M 的扩展,GPU 基础设施的负担也跟着猛增除非在有效部署 KV 缓存策略的情况下,否则这些资源是无法充分利用的

最近进行的DDN基准测试强调了增量。

传统重计算技术(112千个令牌上下文):处理时间在57秒以内,借助KV缓存的技术,DDN Infinia的加载时间仅需2.1秒;效果上提升为原来的性能提升了27倍以上。

这不仅仅是性能胜出,私家侦探,侦探公司,调查公司,查人找物,商务调查,出轨外遇调查,婚外情调查,私人调查,19209219596更是人工智能推理经济学的根本转变。传统的人工智能系统耗费了大量的GPU周期,每次提示或者用户交互都反复处理相同的上下文导致低效,造成了DDN所说的GPU浪费螺旋——对性能、成本与能源消耗的复合打击。

在DDN键值(KV)缓存架构中,智能的存储和重用之前计算出来的上下文数据可以打破这一循环,减少重新加载和处理代币的需要,进而降低输入代币的成本高达75%之多。这对于每天有1,000个并发AI推理管道运行的企业来说意味着节约高达80,000美元的GPU费用——如果企业将交互次数提升成几千次且运营24/7的话。通过消除这一隐形成本,DDN不仅缩短了响应时间,也显著提高了生成式人工智能的实际生产环境可行性。

如果实际客户影响没有使用KV缓存,那么数小时或几天后的回头客会迫使AI系统重新处理整个历史记录——每次交互消耗10+秒和数千个GPU周期。利用DDN Infinia技术可以立即访问这些缓存的上下文,从而保持相关性和实时响应能力。

为什么 DDN Infinia 优于此DDN Infinia 专为下一代 AI 工作负载而设计,提供:***私家侦探,侦探公司,调查公司,查人找物,商务调查,出轨外遇调查,婚外情调查,私人调查,19209219596***

毫秒级延迟:低于 1 毫秒,而传统云存储则需300-500 毫秒。海量并发:每秒稳定高达10万+ AI 调用; NVIDIA 集成为 H100、GB200 和 DPU 等构建的IO500 运行时间久经考验,始终位居全球性能最强的数据平台之列

面对未来的大规模人工智能推理,检索增强生成(RAG)、语言模型代理以及多模态AI系统正迅速兴起,这种推理现已成为一种实时的高效率作方式。由于DDN系统的弹性和GPU优化平台特性,这保证了基础设施可以随着上下文增长而扩展,并且不会被它削弱。

这是一个战略转折点,“DDN”首席执行官兼联合创始人Alex Bouzari表示:“在AI领域,速度并不只关乎性能,而且关乎经济性。“DDN”的目标是帮助组织能在人工智能管道的各个环节上变得更加快速更智能并且更具成本效益地运营。”

顶: 7踩: 6677