FFI-SDK
Flowforest开发者工具链

FFI-SDK

CIM AI 模型开发全流程工具链

从模型导入、量化压缩、编译优化到硬件模拟与部署,FFI-SDK 提供完整的端到端开发体验,让 AI 模型在 FFI8805 系列硬件上发挥最大性能。

28%
硬件相关性
1大框架
支持 AI 框架
0
操作系统支持
14+
预建模型模板
核心功能

全流程开发工具

FFI-SDK 涵盖 AI 模型从开发到部署的每个环节,提供业界领先的编译器、分析器和模拟器。

CIM 编译器

将 ONNX/TFLite/PyTorch 模型编译为 FFI8805 原生指令集,自动进行运算图优化、内存调度与算子融合。

性能分析器

逐层、逐算子的性能剖析,包含延迟、内存带宽、功耗等指标,支持瓶颈定位与优化建议。

硬件模拟器

Cycle-accurate 硬件模拟器,与实际芯片相关性 > 98%,无需实体硬件即可进行模型验证与性能预估。

量化优化器

支持 INT4/INT8/FP16 混合精度量化,自动搜索最佳量化策略,精度损失 < 0.5% 的同时最大化推理速度。

CLI 工具

命令行界面支持批量编译、自动化测试与脚本集成,适合 CI/CD 流水线与大规模模型部署场景。

CI/CD 集成

提供 GitHub Actions / GitLab CI 模板,支持模型版本管理、自动回归测试与部署流水线。

编译流程

五步骤模型部署

从模型导入到硬件部署,FFI-SDK 将复杂的 CIM 编译流程简化为五个直觉步骤。

1

模型导入

支持 ONNX / TFLite / PyTorch / PaddlePaddle

2

量化压缩

INT4/INT8/FP16 混合精度自动搜索

3

CIM 编译

运算图优化 + 内存调度 + 算子融合

4

硬件模拟

Cycle-accurate 模拟与性能预估

5

部署上线

一键部署至 FFI8805 目标硬件

支持框架

FFI-SDK 原生支持主流 AI 框架,无需手动转换模型格式。

ONNX
1.14+
TensorFlow Lite
2.x
PyTorch
2.0+
PaddlePaddle
2.5+
互动式展示

SDK 编译流程体验

模拟 FFI-SDK 从模型导入到部署的完整编译流程,点击各步骤查看详细操作

模型导入
量化压缩
CIM 编译
硬件模拟
部署上线
选择模型与参数后点击「开始编译」

详细技术规格

登录查看完整规格

详细技术规格与应用场景需要登录后才能查看。

开始使用 FFI-SDK

联系我们的技术团队,获取 FFI-SDK 试用授权与技术支持。