CIM Chip
杭州泓林芯馳智能科技有限公司杭州泓林芯驶智能科技有限公司

SRAM-CIM 存算一体
实现 AI 推理的最后一公里

泓林芯驰以 SRAM-CIM 核心架构打造 FFI8805 即插即用边缘 AI 平台,用成熟工艺实现极致能效,打通 Edge AI 大规模落地的最后一公里

探索产品
01 / Background

突破冯诺依曼架构的 内存墙

传统的冯诺依曼(von Neumann)运算架构将处理器与内存分离,数据需在两者间频繁传输,形成所谓的「内存墙」瓶颈。随着 AI 模型规模爆炸性增长,数据搬运的延迟与功耗已成为限制 AI 算力提升的关键枷锁。

为此,「存算一体」(Computing In Memory, CIM)技术应运而生。其核心理念是在内存单元内直接执行计算,将数据存储与逻辑运算在物理层面高度整合,从根本上消除数据来回搬运的开销。

核心概念:让计算在数据驻留之处即时发生,而非将数据搬运至处理器——这是对「计算本质」的重新定义。

Von Neumann Bottleneck

冯诺依曼瓶颈示意:处理器(暖色)与内存(冷色)间的数据通道成为性能瓶颈

冯诺依曼架构 vs CIM 架构

点击切换,比较两种架构的数据处理流程差异

CPU 处理器
ALU + Control Unit
瓶颈:数据搬运
数据总线
内存 (DRAM)
Storage Only

数据需在处理器与内存之间反复搬运,造成延迟与功耗瓶颈

延迟
高(ns 级)
功耗
高(搬运耗能)
带宽利用
受限

CIM 技术发展历程

1945

冯诺依曼架构诞生

处理器与内存分离的经典运算范式确立,奠定现代计算机基础。

2010s

内存墙问题浮现

AI 模型规模急速膨胀,数据搬运的延迟与功耗成为算力提升的关键瓶颈。

2020s

CIM 技术兴起

存算一体概念从学术走向产业,多家厂商开始投入 SRAM-based CIM 芯片研发。

2025

产业化落地加速

联发科天玑 9500 导入 CIM 架构,NVIDIA 斥资 200 亿美元取得 Groq LPU 技术授权。

2026+

多架构并行时代

CIM 量产渗透率预计突破 35%,AI 芯片正式进入 LPU、GPU、TPU 多架构并行的新世代。

02 / Advantages

AI 边缘运算的 赋能者

FFI8805 基于 SRAM-CIM 存内运算架构,以低于 1W 的功耗实现高效 AI 推理,提供即插即用的标准化模组方案,协助客户将开发周期从 12 周缩短至 4 周。

$0B
2030 Edge AI 市场规模 (USD)
0%
Edge AI 市场 CAGR
0%
云端运算成本降低
0x
开发周期缩短
Edge AI Devices

CIM 技术赋能各类边缘 AI 装置:手机、穿戴设备、自驾传感器、工业 IoT

FFI8805 Mini

轻量级视觉与语音识别模组

架构SRAM-CIM
功耗< 1W
接口USB 3.0 / M.2
应用IPC / 智慧家庭 / 工控

FFI8805 Pro

小语言模型 (SLM) 与分层推理模组

架构SRAM-CIM + SLM
功耗< 3W
接口PCIe 3.0 / M.2
应用小语言模型 / 工业检测

AI 芯片市场趋势与预测

2020–2030 年全球 AI 芯片市场规模与 CIM 渗透率预估

20202021202220232024202520262027202820292030085170255340$B015304560%
  • 市场规模(十亿美元)
  • CIM 渗透率(%)

数据来源:综合 Gartner、IDC、TrendForce 等研调机构预估

会员专属内容

CIM vs NPU vs GPU 技术对比图表与量化规格基准为注册会员专属内容。登录即可解锁完整对比分析。

登录解锁

会员专属功能

Benchmark 模拟器为注册会员专属工具。登录即可解锁完整推理延迟、功耗与部署成本模拟功能。

登录解锁
03 / Challenges

Edge AI 落地的 三大痛点

Edge AI 的大规模落地面临三大痛点:部署整合难(软硬件规格不一,整合周期长达数月)、云端成本高(即时性差且有隐私疑虑)、运维成孤儿机(设备分散各地,缺乏 OTA 与远程诊断)。据 Gartner 统计,85% 的 Edge AI 项目因缺乏有效的生命周期管理而无法扩展。

部署整合难

软硬件规格不一,像拼装车。整合与开发周期长达数月,严重拖慢产品上市。

云端成本高

全靠云端推理运营成本高昂,即时性差且有隐私疑虑,无法大规模商业化。

运维成孤儿机

设备分散各地,缺乏 OTA 与远程诊断能力,售后维护成本极高。

CIM Architecture

CIM 架构:数据在内存阵列中流动,无需外部搬运

FFI8805 解决方案

Plug & Play 标准化模组:统一接口标准,数周即可上线
SaaS 云端运维平台:支持 OTA 更新与远程监控
FFI-Ready 认证体系:建立生态兼容性标准与质量保证
04 / Business Model

商业模式与 生态系统

FFI 采用「硬件 + 软件订阅 + 认证生态 + IP 授权」四大支柱商业模式。

FFI 商业模式

硬件模组销售

标准化 FFI8805 模组

高现金流

软件订阅 SaaS

SDK 工具包 + 云端平台

经常性收入

认证生态系

FFI-Ready 兼容认证

生态护城河

IP 授权

核心架构技术授权

高毛利
Heterogeneous Integration

异构融合系统:CIM(蓝)、GPU(绿)、CPU(金)、光计算(紫)各司其职,通过先进封装技术整合

模组销售 (Hardware)

标准化 FFI8805 模组

单价联系销售
规模效应量产后成本递减

软件订阅 (SaaS)

SDK 开发工具包与云端运维平台订阅

订阅模式年费订阅
黏性高转换成本

FFI-Ready 认证

硬件兼容性测试费与年度品牌授权费

分级Basic / Pro / Premium
费用测试费 + 年费
生态OCA 开放联盟

飞轮效应:FFI 平台通过正向飞轮循环驱动生态成长:更多合作伙伴 → 更多部署量 → 更高经常性收入 → 更强生态护城河。认证体系与专属开发工具链增加转换成本,提升客户长期黏着度。

技术选型指南

技术选型指南

回答几个简单问题,我们将为您推荐最适合的 CIM 产品型号

步骤 1/50%

您的主要应用场景是什么?

05 / Conclusion

结论

FFI8805 平台采取「避实击虚」的竞争策略,不拼算力 (TOPS),主打能效比 (Perf/Watt),利用成熟制程 + SRAM-CIM 架构提供极致性价比。

聚焦破碎化市场:锁定 IPC、工控机、传统网关 (Gateway) 升级需求,提供 Turnkey Solution 与标准模组,让 Dumb Devices 通过 USB/M.2 升级为 AI Devices。通过标准化接口定义 Edge AI 的 USB,软件黏着度通过云端运维 (OTA) 与预训练模型库建立用户迁移成本。

FFI8805 不仅是芯片供应商,更是 Edge AI 基础设施的关键规格制定者。通过 Open CIM Alliance (OCA) 联盟共识与 ARM 共同定义标准,形成平台级生态系统,通过解决大厂无法解决的碎片化问题并与巨头共生形成平台。

竞争维度FFI8805 (OCA)传统 AI 加速器FFI 优势
核心架构SRAM-CIM 存内运算传统 GPU/NPU 架构极致能效比
整合方式即插即用标准模组定制化开发、长周期4 周部署 vs 12 周+
运维能力SaaS 云端 OTA + 远程诊断缺乏统一运维平台降低 60% 运维成本
生态系统OCA 开放联盟 + FFI-Ready 认证封闭生态、锁定效应开放标准降低门槛