info
西门子 Simcenter STAR-CCM+ 应用案例分享
行业动态
MORE...
PTC
应用案例
MORE...
技术前沿
MORE...
当前位置:首页 数字化制造 正文
借助自适应模块化系统 (SOM)加速边缘创新
转载 :  zaoche168.com   2021年07月23日

由AI提供支持的应用,正在日益普遍地被部署到边缘和终端,高性能AI推断正在推动更智慧的城市和高度自动化的智能工厂步入现实。随着智能零售引入了极为精致的自动化购物体验,零售体验也变得更加精巧细腻。这些应用需要具备极高可靠性并提供高性能,同时也需要提供高效紧凑的外形尺寸。

边缘处理难题

在边缘部署系统时,功耗、占板面积和成本都是制约因素。在边缘处理的种种限制条件下,处理需求的不断提高,意味着提供所需的性能水平将面临更大的挑战。虽然CPU在边缘计算上也有发展,但近年来的增长速度有所放缓。在为新一代AI支持的边缘应用交付所需性能时,未加速的 CPU 表现得相当勉强,特别是考虑到严格的时延要求。

当在边缘上实现前沿AI应用时,领域专用架构 (DSA)是关键。此外,DSA还提供确定性和低时延。

合适的DSA专门设计用于高效处理所需数据,既有AI推断,也有非AI部分的应用,也就是整体应用的加速。考虑到 AI 推断需要非 AI 的预处理和后处理,这些都需要更高的性能,这一点很重要。从根本上说,要在边缘上(和其他地方)实现由AI提供支持的高效应用,需要整体应用的加速。

如同任何固定功能的芯片解决方案一样,为AI边缘应用开发的应用专用标准产品 (ASSP) 仍有自己的局限性。主要挑战在于AI创新的速度异乎寻常。与非AI技术相比,AI模型的过时速度会快得多。使用固定功能的芯片器件实现AI,会因更新型、更高效AI模型的出现而迅速过时。固定功能芯片器件的流片需要花费数年时间,到那时AI模型的前沿技术将已经向前发展。此外,对于边缘应用,安全和功能安全要求的重要性也在提高,可能经常需要成本高昂的现场更新。

自适应计算的前景

自适应计算包含能够针对具体应用进行优化的硬件,例如现场可编程门阵列 (FPGA),它是一个功能强大的解决方案,专门用于基于AI的边缘应用。

此外,新的自适应硬件也层出不穷,包括含有FPGA架构并与一个或多个嵌入式CPU子系统耦合的自适应片上系统 (SoC)。然而自适应计算远不止“纯硬件”。它整合了一套综合而全面的设计软件和运行时软件。将它们结合起来,就形成了一种独特的自适应平台,可在其上构建非常灵活高效的系统。

用自适应计算实现DSA,可避免使用ASIC等定制芯片器件所需的设计时间和前期成本。这样就能为任何特定领域应用,包括基于AI的边缘应用,迅速部署经过优化的灵活的解决方案。自适应SoC是此类领域专用处理的理想选择,因为它们既拥有综合全面的嵌入式CPU子系统的灵活性,又具备自适应硬件的优异的数据处理能力。

推出自适应模块化系统 — SOM

模块化系统(SOM) 提供完整的、可量产的计算平台。与从芯片级从头开发(chip-down development)相比,这种方法能节省可观的开发时间与成本。SOM能够插入到较大的边缘应用系统内,从而既可以提供定制实现方案的灵活性,又可以提供现成解决方案的易用性和更快的上市速度。这些优势让SOM 成为边缘 AI 应用的理想平台。然而,要实现现代化AI应用所需的性能,加速必不可少。

某些应用需要定制硬件组件与自适应SoC接口连接,意味着需要从芯片级从头设计(Chip-down design)。然而,越来越多基于AI的边缘应用,需要相似的硬件组件和接口,甚至在终端应用迥异的时候也是如此。随着企业转向标准化接口和通信协议,尽管处理需求显著不同,但同一套组件可适用于各种类型的应用。

面向基于AI的边缘应用的自适应SOM,结合了自适应 SoC与行业标准接口和组件,使得硬件经验有限甚至没有硬件经验的开发者也可以获益于自适应计算技术。自适应SoC既能实现AI处理,也能实现非AI处理,也就是说其可以满足整体应用的处理需求。

此外,自适应SOM上的自适应SoC支持高度的定制化。它的设计目的,是集成到更大型的系统内并使用预定义的外形尺寸。使用自适应SOM,可以全面发挥自适应计算的优势,同时避免了从芯片级从头开始的芯片设计。自适应SOM只是解决方案的一个部分。软件也是关键。

采用自适应SOM的企业,能广泛受益于性能、灵活性和快速开发时间的独特组合。无需构建自己的电路板,他们就能够享受自适应计算提供的各种优势 — 这个优势,最近才随着赛灵思Kria™自适应SOM产品组合的推出在边缘得以实现。

Kria K26 SOM

Kria K26 SOM构建在Zynq® UltraScale+™MPSoC架构顶端,搭载四核Arm® Cortex™-A53 处理器,超过25万个逻辑单元和一个H.264/265视频编解码器。此外,该SOM还搭载4GB的DDR4存储器、69 个3.3V I/O和116个1.8V I/O,使之能够适配几乎任何处理器或接口。凭借1.4TOPS的AI算力,与基于 GPU 的 SOM相比,Kria K26 SOM助力开发者开发出时延和功耗更低,性能高3倍的视觉AI应用。这对安保、交通与市政摄像头、零售分析、机器视觉和视觉引导机器人等智能视觉应用,可谓是重大福音。通过标准化系统核心部分,开发者拥有更多时间专心开发自己的专属特性,从而在市场竞争中实现技术差异化。

与软件可以更新但受到固定加速器限制的其他边缘AI产品不同,Kria SOM在两个方面提供灵活性,即软件和硬件都能在今后更新。用户能够适配I/O接口、视觉处理和AI加速器,为以下的部分或全部应用提供支持:MIPI、LVDS和SLVS-EC接口;适用于日间或夜间的高质量专用高动态范围成像算法;8位深度学习处理单元;或未来的4位甚至是2位深度神经网络方法。多模传感器融合与实时AI处理的结合,如今已经非常容易实现,可以从赛灵思KV260视觉AI入门套件开始设计,通过Kria K26 SOM部署到生产中。

Kria KV260视觉AI入门套件

面向软硬件开发者提供的优势

自适应SOM同时让硬件开发者和软件开发者受益。对于硬件开发者,自适应SOM提供了现成的、可量产的解决方案,从而节省了大量的开发成本与开发时间。此外,这些器件也允许硬件团队在流程后期变更设计,而基于固定功能芯片技术的SOM则无法实现。

对于AI开发者和软件开发者来说,自适应计算比过去更容易应用。赛灵思为确保自适应计算的易用性,对工具流进行了大量投资。通过将软硬件平台与可量产的视觉加速应用相结合,Kria SOM产品组合的推出将这种易用性提升到全新水平。这些交钥匙应用取消了所有FPGA硬件设计工作,只需要软件开发者集成他们的定制AI模型、应用代码并有选择地修改视觉流水线。在Vitis™统一软件开发平台和库支持下,他们可以使用熟悉的设计环境,如TensorFlow、Pytorch或Caffe框架以及C、C++、OpenCL™和Python编程语言。

通过这种面向软件设计的新的加速应用范式,赛灵思还面向边缘应用推出了首个嵌入式应用商店,为客户提供来自赛灵思及其生态系统合作伙伴的丰富多样的Kria SOM应用选择。赛灵思解决方案属于免费提供的开源加速应用,包含智能摄像头、人脸检测、带有智能视觉辅助的自然语言处理等多种应用。

灵活应变的未来

AI模型将继续以高速步伐向前演进发展。这意味着加速平台必须能够灵活应变,才能在现在和未来以最佳方式实现AI技术。实际上,SOM提供了理想的边缘处理平台。与自适应SoC相结合,SOM为由AI提供支持的应用,提供了综合全面、可量产的平台。采用这类器件的企业能广泛受益于性能、灵活性和快速开发时间的独特组合,并从自适应计算种收获丰厚的回报。


 

品牌社区
—— 造车工艺 ——
—— 数字化制造 ——
—— 智能驾驶 ——
—— 新能源技术 ——
—— 机器人技术 ——
Baidu
map