
DeepSeek V4などの超大規模モデルが兆パラメータを超える中、従来のGPU + DRAMアーキテクチャはメモリ容量、ストレージ帯域幅、運用コストの3つのボトルネックに直面しています。
671Bパラメータモデルは1.2TB+のメモリが必要。単一ノードのGPU HBM容量は大幅に不足し、KV-Cacheはコンテキスト長と共に線形に增大します。
Prefill段階ではSSDから数百GBのモデル重みをロードする必要があり、従来の単一パスPCIe帯域幅が主要なボトルネックとなります。
大規模GPUクラスタの電力と冷却コストが上昇し続け、トークンあたりの推論コストを商業的に実行可能なレベルまで下げるのが困難です。
FFI8805 Premiumは3つのブレークスルー技術を統合し、モデルメモリ、データパス、ストレージメディア全体でLLM推論を最適化します。
EngramはDeepSeek V4が導入したネイティブ永続メモリ機構で、高頻度知識をO(1)クエリ可能な構造化メモリに圧縮し、KV-Cacheの線形成長を置き換えます。
DualPathはAIトレーニングクラスタのアイドルDEノードSNICを活用し、SSD→DE DRAM→CNIC RDMA→GPUの第2データパスを開きます。
5層AI対応アーキテクチャはNANDアレイからアクセラレーション層まで全面的に再設計され、SSDコントローラがAIワークロードのアクセスパターンを理解します。
FFI8805 Premium は CIM AI アクセラレーションコア、SSD コントローラ、NAND アレイを単一の 2.5" U.2 モジュールに統合。各サブシステムの完全な仕様を以下に示します。