FFI8805 Premium
FlowforestNEXT-GEN PRODUCT

FFI8805 Premium

CIM AI 加速器 × SSD 存储 — 全方位 LLM 解决方案

FFI8805 Premium 整合存算一体 AI 加速核心与 AI 感知型 SSD 控制器,搭载 DeepSeek V4 Engram 永久记忆引擎及 DualPath 双路带宽优化技术,为大语言模型推理提供从芯片到系统的完整硬件方案。

12%
任务完成时间降低
61%
推理吞吐量提升
307
GPU 可扩展规模
9%
能效比提升

LLM 推理面临的三大瓶颈

随着 DeepSeek V4 等超大规模模型参数突破万亿级,传统 GPU + DRAM 架构在内存容量、存储带宽与运营成本三方面同时遇到瓶颈。

内存墙

671B 参数模型需 1.2TB+ 内存,单机 GPU HBM 容量远远不足,KV-Cache 随上下文长度线性膨胀。

存储带宽瓶颈

Prefill 阶段需从 SSD 加载数百 GB 模型权重,传统单路 PCIe 带宽成为推理延迟的主要瓶颈。

运营成本

大规模 GPU 集群的电力与散热成本持续攀升,每 Token 推理成本难以降低至商业可行水平。

CORE TECHNOLOGIES

三大核心技术支柱

FFI8805 Premium 融合三项突破性技术,从模型记忆、数据通路到存储介质全面优化 LLM 推理效能。

PILLAR 1 · MODEL MEMORY

DeepSeek V4 Engram 永久记忆引擎

Engram 是 DeepSeek V4 引入的原生永久记忆机制,将高频知识压缩为 O(1) 可查询的结构化内存,取代传统 KV-Cache 的线性增长模式。结合 MLA v2 多头潜在注意力与 FP8 混合精度训练,在 14.8T Token 语料上实现全面超越 V3 的性能。

O(1)
记忆查询复杂度
14.8T
训练 Token 数
5.2×
记忆压缩比
671B
模型参数量

V4 vs V3 基准提升

MMLU+3.4
BBH+5.0
HumanEval+3.0
MATH+2.4
Multi-Query NIAH+12.8
DualPath Storage Bandwidth Optimization for LLM InferenceLeveraging Idle DE Nodes & RDMA for Enhanced Performance≫ Path 1: PE Read Path (Traditional)SSDSSD Storage(PE Node)?DataDRAMPE DRAM(Host Memory)?NVLink/PCIeHost Interconnect?PE→GPUGPU HBMGPUGPUGPUPE to GPU Transfer?DualPathOptimization HubFFI8805 PremiumSRAM-CIM + Engram Engine?GPU ClusterLLM Inference ProcessingGPUGPUGPUGPUGPUGPUGPUGPUGPU?≫ Path 2: DE Read Path (Innovative)SSDSSD Storage(DE Node)?DataDE DRAMData Engine DRAM(Idle DE Node)?CNICConverged NetworkInterface Card?RDMARemote DirectMemory AccessDE→GPU Direct?DE→GPU Direct Access45.62%JCT Reduction (Job Completion Time)2.25xThroughput (vs Traditional)1,152GPU Scale(Scalability)LEGENDPE Path (Cyan): Traditional Read Path — SSD → PE DRAM → NVLink/PCIe → GPU HBMDE Path (Amber): Innovative DualPath Read — SSD → DE DRAM → CNIC → RDMA → GPU Direct AccessGPU Cluster: LLM Inference ProcessingDualPath Optimization Hub: FFI8805 Premium
PILLAR 2 · DATA PATH

DualPath 双路带宽优化

DualPath 技术利用 AI 训练集群中闲置的 DE(数据引擎)节点 SNIC 网卡,开辟第二条 SSD→DE DRAM→CNIC RDMA→GPU 的数据通路。在 Prefill 阶段,双路并行读取模型权重,突破传统单路 PCIe 的带宽天花板。

45.62%
JCT 降低
2.25×
吞吐量提升
1,152
GPU 规模
PILLAR 3 · STORAGE MEDIA

AI 感知型 SSD NAND IP 架构

五层式 AI 感知架构从 NAND 阵列到加速层全面重新设计,让 SSD 控制器理解 AI 工作负载的存取模式,实现智能预取、动态 QoS 与近存储计算。

AI 存取模式识别自动识别 Prefill / Decode / Checkpoint 三种 LLM 存取模式,动态调整 NAND 调度策略
三级仿生缓存L1 SRAM + L2 DRAM + L3 SLC 三级缓存,命中率 β = 0.85–0.95
智能预取引擎基于注意力模式预测下一批 KV-Cache 存取位置,提前加载至高速缓存
近存储压缩在 NAND 控制器层级执行 INT4/INT8 量化解压,减少 PCIe 传输量
FFI8805 Premium AI Accelerator + SSD Storage SolutionIntegrated 5-Layer Architecture: From AI Acceleration to NAND StorageCIM AI AcceleratorSmart SSD StorageLayer 1AI Acceleration LayerSRAM-CIM • 12 TOPS • EngramINT4/INT8/FP16/FP8?Layer 2AI Interface LayerAPIPCIe+ CXLNVMe?Layer 3AI Core LayerSRAM-CIM Array • 64MB On-Chip22nm Process • 3D SSD Extension?Layer 4QoS Control LayerOPTIMIZEMONITORTRAFFIC MGMT?Layer 5NAND Array Layer3D TLC/QLC NAND • 4/8/16 TB • AI-Aware Controller?AI AccelInterfaceAI CoreQoSNANDClick any layer for detailed specifications
HARDWARE SPECIFICATION

硬件规格总览

FFI8805 Premium 整合 CIM AI 加速核心、SSD 控制器与 NAND 阵列于单一 2.5" U.2 模块中,以下为各子系统的完整规格。

FFI8805 Premium 详细规格

ComponentSpecificationPerformance

会员专属技术文档

详细规格表、内存层级架构、技术对比、应用场景与产品路线图等进阶内容仅限已登录会员查阅。