驯服自适应视觉算法的内存需求复杂性
1. 引言
如今,嵌入式设备对视觉能力的需求与日俱增,从微小的医疗植入物到智能汽车和分布式智能相机,都需要先进的视觉功能和视觉场景分析。在众多视觉算法中,能够动态适应场景变化的自适应视觉算法(AVAs)成为了高级视觉分析的主流。
然而,尽管AVAs在算法开发环境(如Matlab)中已经实现了很长时间,但在嵌入式设备上实现低功耗运行仍然面临巨大挑战。嵌入式设备的计算和通信资源有限,能量和功率预算也受到严格限制,而AVAs需要大量的计算和通信能力,其功耗远远超出了嵌入式系统的预算。其中,通信成为了阻碍AVAs在嵌入式设备上实现的主要瓶颈。
AVAs的主要限制在于算法本身带来的大量通信流量。由于其固有的学习特性,AVAs需要不断更新场景的模型数据,这些模型数据通常非常大,超出了当前片上内存的容量,因此需要使用片外内存。访问和更新这些模型数据会导致巨大的片外带宽需求和相关的功耗。例如,在全高清分辨率下更新混合高斯(MoG)背景减法算法的带宽需求约为8GB/s,占总功耗的约90%。
目前的方法要么忽略AVAs的嵌入式实现,专注于非自适应算法,要么仅在低分辨率下实现AVAs。因此,优化模型数据对于实时低功耗实现AVAs至关重要,但目前受到的关注较少。本文提出了一种系统级方法,旨在管理AVAs的模型数据流量,通过压缩模型数据来减少带宽和功耗,并探索不同压缩算法对带宽和结果质量的影响。
2. 相关工作
嵌入式视觉算法的实现仍处于早期阶段。以前的嵌入式视觉工作大多局限于基本的视觉滤波器,如Canny边缘检测,这些算法的计算规则,通信需求较少。只有少数研究针对嵌入式设备上的自适应视觉算法,如MoG、K
超级会员免费看
订阅专栏 解锁全文
1397

被折叠的 条评论
为什么被折叠?



