iCAN(BMVC2018)
在InteractNet上做的改进,达到了 V-COCO 45.3%。
- 在由h或者o计算a的分数时,不止用它们本身的特征,还concat了context特征,contex特征则是根据intance产生的注意力在原图的特征上得到的。
- 同样需要判断h和o是否有关系,该方法是用空间的interaction pattern(neural-motif中有这个)并concat
human instance计算得到的。

本文介绍iCAN(BMVC2018)在InteractNet上的改进成果,实现了V-COCO45.3%的成绩。重点在于计算h或o到a的分数时,不仅使用其本身的特征,还融合了根据实例产生的注意力在原图特征上获得的上下文特征。同时,通过空间交互模式判断h和o的关系。
在InteractNet上做的改进,达到了 V-COCO 45.3%。

您可能感兴趣的与本文相关的镜像
LobeChat
LobeChat 是一个开源、高性能的聊天机器人框架。支持语音合成、多模态和可扩展插件系统。支持一键式免费部署私人ChatGPT/LLM 网络应用程序。
1473
2789
1917
1465
1363
1126
3647
429
1720
5616