
加州桑尼維爾, 2026年4月22日 – (亞太商訊 via SeaPRwire.com) – 身為 GPU 加速 NVMe 儲存技術先驅的 Graid Technology 今日宣布推出其「Agentic AI 儲存產品組合」:這是一系列專為消除阻礙「全天候運行」生產級 AI 的儲存瓶頸而設計的 KV 快取解決方案。該產品組合涵蓋三個部署層級:KV Cache Server、KV Cache Rack 以及 KV Cache Platform,均基於 SupremeRAID™ 技術打造。作為產品組合中最高階的 KV Cache Platform,其設計專為 NVIDIA 的 STX 參考架構而優化,並已將原生 BlueField-4 DPU 執行功能納入 2026 年下半年產品路線圖中。
隨著自主型 AI 從實驗階段邁向生產環境,支撐單次推論的基礎架構假設已不復成立。執行連續多步驟任務並在數小時運作中維持上下文的模型,會產生遠超 GPU HBM 處理能力的 KV 快取需求。其結果是:延遲飆升至最高 18 倍,GPU 利用率低至 50%,並引發難以偵測且修復成本高昂的模型層級故障,包括幻覺和推理能力退化。
SupremeRAID™ 直接解決了此問題,可將多達 32 顆 NVMe 硬碟彙整成單一 280 GB/s 的虛擬儲存池,透過 GPU Direct Storage 繞過 CPU,並以 1.3 毫秒的速度執行 KV 快取讀取,速度比標準 NVMe 快 77 倍。這三個產品層級讓這項功能能適用於各種部署規模:
KV Cache Server —— 專為單一推論伺服器及邊緣 AI 部署設計的單節點 NVMe 加速解決方案。現已上市。
KV Cache Rack —— 與領先的伺服器 OEM 合作夥伴共同設計、經合作夥伴驗證的機架級解決方案,適用於企業級多 GPU 叢集。現已上市。
KV Cache Platform —— 專為 NVIDIA 的 STX 參考架構打造,具備原生 BlueField-4 DPU 執行能力,並已將機架級儲存擴充納入發展藍圖。
「一年前,在 GTC 2025 大會上,黃仁勳預言儲存將首次實現 GPU 加速。今年,NVIDIA 透過 STX 和 CMX 將這個概念轉化為具體的架構,」Graid Technology 執行長 Leander Yu 表示。「我們的 KV Cache 產品組合正是為此時刻而生,能在符合儲存層成本效益的前提下,提供代理式人工智慧所需的儲存效能。」
對於正在評估代理式 AI 部署的企業及基礎設施團隊,完整的部署架構、技術規格以及 NVIDIA STX 相容性詳情,請參閱解決方案簡報:《Graid Technology 代理式 AI 儲存產品組合:專為大規模推論設計的 KV 快取解決方案》。
如欲進一步了解 Graid Technology 的人工智慧解決方案,請造訪 graidtech.com/ai。
媒體洽詢:
Andrea Eaken,美洲及歐洲、中東與非洲地區行銷資深總監
andrea.eaken@graidtech.com
關於 Graid Technology
Graid Technology 正致力於為人工智慧、企業級應用及高效能運算的未來打造儲存基礎架構。作為全球首創且唯一的 GPU 基於 RAID 技術 SupremeRAID™ 的開發者,以及 Intel® Virtual RAID on CPU (Intel® VROC) 的全球技術維護者,Graid Technology 提供靈活的 RAID 解決方案,在確保現代資料基礎架構具備彈性且可擴展的資料保護能力之同時,亦能將 NVMe 效能發揮至極致。Graid Technology 總部位於矽谷,業務遍及全球,並在台灣設有研發中心,致力於推動 RAID 技術創新,以滿足下一代數據密集型工作負載的需求。欲了解更多資訊,請造訪 graidtech.com。
來源:Graid Technology Inc.
Copyright 2026 亞太商訊 via SeaPRwire.com. All rights reserved. www.acnnewswire.com

