Traditional Chinese

隨著 DeepSeek V4 等超大規模模型參數突破兆級,傳統 GPU + DRAM 架構在記憶體容量、存儲頻寬與運營成本三方面同時遭遇瓶頸。
671B 參數模型需 1.2TB+ 記憶體,單機 GPU HBM 容量遠遠不足,KV-Cache 隨上下文長度線性膨脹。
Prefill 階段需從 SSD 載入數百 GB 模型權重,傳統單路 PCIe 頻寬成為推理延遲的主要瓶頸。
大規模 GPU 叢集的電力與散熱成本持續攀升,每 Token 推理成本難以降低至商業可行水平。
FFI8805 Premium 融合三項突破性技術,從模型記憶、數據通路到存儲介質全面優化 LLM 推理效能。
Engram 是 DeepSeek V4 引入的原生永久記憶機制,將高頻知識壓縮為 O(1) 可查詢的結構化記憶體,取代傳統 KV-Cache 的線性增長模式。結合 MLA v2 多頭潛在注意力與 FP8 混合精度訓練,在 14.8T Token 語料上實現全面超越 V3 的性能。
DualPath 技術利用 AI 訓練叢集中閒置的 DE(數據引擎)節點 SNIC 網卡,開闢第二條 SSD→DE DRAM→CNIC RDMA→GPU 的數據通路。在 Prefill 階段,雙路並行讀取模型權重,突破傳統單路 PCIe 的頻寬天花板。
五層式 AI 感知架構從 NAND 陣列到加速層全面重新設計,讓 SSD 控制器理解 AI 工作負載的存取模式,實現智慧預取、動態 QoS 與近存儲計算。
FFI8805 Premium 整合 CIM AI 加速核心、SSD 控制器與 NAND 陣列於單一 2.5" U.2 模組中,以下為各子系統的完整規格。