iCAN(BMVC2018)
在InteractNet上做的改进,达到了 V-COCO 45.3%。
- 在由h或者o计算a的分数时,不止用它们本身的特征,还concat了context特征,contex特征则是根据intance产生的注意力在原图的特征上得到的。
- 同样需要判断h和o是否有关系,该方法是用空间的interaction pattern(neural-motif中有这个)并concat
human instance计算得到的。

iCAN改进详解
本文介绍iCAN(BMVC2018)在InteractNet上的改进成果,实现了V-COCO45.3%的成绩。重点在于计算h或o到a的分数时,不仅使用其本身的特征,还融合了根据实例产生的注意力在原图特征上获得的上下文特征。同时,通过空间交互模式判断h和o的关系。
在InteractNet上做的改进,达到了 V-COCO 45.3%。

您可能感兴趣的与本文相关的镜像
Linly-Talker
Linly-Talker是一款创新的数字人对话系统,它融合了最新的人工智能技术,包括大型语言模型(LLM)、自动语音识别(ASR)、文本到语音转换(TTS)和语音克隆技术
1473
2789
1916
1464
1363
1126
3647
429
1720
5616