0 卖盘信息
BOM询价
您现在的位置: 首页 > 电子资讯 >业界动态 > Efinix FPGA 集成用于 AI 加速的 TinyML 平台

Efinix FPGA 集成用于 AI 加速的 TinyML 平台

来源: eetasia
2022-11-18
类别:业界动态
eye 13
文章创建人 拍明芯城

原标题:Efinix FPGA 集成用于 AI 加速的 TinyML 平台

  TinyML 平台与高性能和支持 Linux 的 Sapphire RISC-V 处理器配合使用,并为 Sapphire 内核提供加速的 AI 功能。

  Efinix 发布了用于在其创新的 FPGA 系列上加速人工智能 (AI) 的 TinyML 平台。TinyML 平台包含一个模型分析器和用于加速器选择的图形用户界面,可与高性能和支持 Linux 的 Sapphire RISC-V 处理器配合使用,并为支持四核的 Sapphire 内核提供加速的 AI 功能。

  “我们看到越来越多的趋势将 AI 工作负载推向更远的边缘,在那里他们可以在仍然与上下文相关的环境中立即访问原始数据。在功率和空间受限的环境中为这些 AI 算法提供足够的计算是一个巨大的挑战,”Efinix 营销副总裁 Mark Oliver 说。“我们的 TinyML 平台利用我们的高性能、嵌入式 RISC-V 内核的潜力与 Efinix FPGA 架构的效率相结合,并将它们直观地提供给设计人员,从而加快上市时间并降低在边缘采用 AI 的障碍。”

  


  TinyML 平台利用 RISC-V 自定义指令功能来提供可扩展的加速指令库,该库是根据所选 TensorFlow Lite 模型的要求定制的。指令的复杂性和大小各不相同,可以通过图形用户界面进行选择,以提供最终用户应用程序所需的资源/加速权衡。

  通过利用 Edge Vision SoC 框架作为 AI 模型实施的起点,设计人员可以进一步加快上市时间。Edge Vision SoC 框架和 TinyML 平台均可供 Efinix GitHub 页面上的开源社区使用。


责任编辑:David

【免责声明】

1、本文内容、数据、图表等来源于网络引用或其他公开资料,版权归属原作者、原发表出处。若版权所有方对本文的引用持有异议,请联系拍明芯城(marketing@iczoom.com),本方将及时处理。

2、本文的引用仅供读者交流学习使用,不涉及商业目的。

3、本文内容仅代表作者观点,拍明芯城不对内容的准确性、可靠性或完整性提供明示或暗示的保证。读者阅读本文后做出的决定或行为,是基于自主意愿和独立判断做出的,请读者明确相关结果。

4、如需转载本方拥有版权的文章,请联系拍明芯城(marketing@iczoom.com)注明“转载原因”。未经允许私自转载拍明芯城将保留追究其法律责任的权利。

拍明芯城拥有对此声明的最终解释权。

相关资讯