使用Set-to-Set函数实现任务自适应嵌入的小样本学习
参考
- 论文下载
- github
动机
protonet架构中,嵌入空间是任务无关的,学习一个任务相关的特征空间。
直观效果

“外推效果:使prototype远离杂乱,靠近自己的簇”
方法框架图

使用tranformer(自注意力)实现自适应的目的
疑问
-
如何实现任务特定的嵌入空间的学习?
使用transformer对prototypes进行处理。自注意力实现了什么效果?为什么能实现这样的效果?为什么transformer能实现自适应的目的?
-
对比学习如何使用?