- 博客(15)
- 收藏
- 关注
原创 [paper阅读笔记][2023]CorpusLM: Towards a Unified Language Model on Corpusfor Knowledge-Intensive Tasks
本文任务虽然是:提出一个统一的语言模型来处理各种知识密集型任务,但其实其本质科学问题是:如何提高LLMs在知识密集型任务中的检索效率。
2024-07-31 21:09:49
2330
原创 [paper阅读笔记][2023]DSI++: Updating Transformer Memory with New Documents
在动态文档集合中更新和维护可微分搜索索引(DSI),但其实其本质科学问题是:如何在模型持续学习新信息的同时减少对旧知识的遗忘。
2024-07-30 17:52:32
2080
原创 [paper阅读笔记][NeurIPS2022]Transformer Memory as a Differentiable Search Index
本文任务虽然是:使用单一Transformer模型完成信息检索,但其实其本质科学问题是:如何有效地将文本查询映射到相关的文档标识符(docids)。
2024-07-29 15:34:05
824
原创 [paper阅读笔记][2024]Learning with Noisy Foundation Models
本文任务虽然是:在下游任务中有效地利用含噪声的预训练基础模型,但其实其本质科学问题是:如何在存在数据噪声的情况下保持和提升模型的泛化能力。
2024-07-27 20:49:05
1188
1
原创 [paper阅读笔记][2023]Prompting Language-Informed Distribution for Compositional Zero-Shot Learning
组合零样本学习(Compositional Zero-Shot Learning, CZSL),本质上是如何通过语言信息增强的分布提示来提升模型对未见组合视觉概念的识别能力。
2024-07-26 18:28:50
979
原创 [paper阅读笔记][2023]Continual Instruction Tuning for Large Multimodal Models
在大型多模态模型(LMMs)中实现持续指令调整时,如何有效地维持对先前任务的记忆,同时学习新任务,避免因新任务学习而导致的灾难性遗忘。
2024-07-26 18:20:18
565
原创 [paper阅读笔记][AAAI2024]CoPL: Contextual Prompt Learning for Vision-Language Understanding
提出一种新的方法,名为Contextual Prompt Learning (CoPL),用于改进视觉-语言理解模型的泛化能力。
2024-07-25 21:47:53
1141
原创 [论文阅读笔记][CVPR2023]All are Worth Words: A ViT Backbone for Diffusion Models
探索在扩散模型中是否可以摆脱传统的基于卷积神经网络(CNN)的 U-Net 结构的依赖。
2024-07-24 22:08:03
1047
1
原创 [paper阅读笔记][CVPR2024]NoiseCollage: A Layout-Aware Text-to-Image Diffusion Model Based on ......
如何有效地利用文本和布局信息来生成高质量的多对象图像,同时避免文本和布局条件之间的不匹配(attention manipulation的局限性)以及生成图像质量的下降(iterative editing的局限性)。
2024-07-24 21:07:19
1802
原创 [paper阅读笔记][CVPR2024]VRP-SAM: SAM with Visual Reference Prompt
利用带有语义标注的参考图像来指导分割目标图像中与参考图像中具有相同语义的物体或区域。为了突破SAM面对复杂目标和陌生场景泛化性不强的限制。
2024-07-23 16:34:19
1077
1
软件开发课程作业javaservlet基于servlet实现登录功能的项目以及实验报告
2024-08-14
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人