- 博客(11)
- 收藏
- 关注
原创 论文分享➲ arXiv2025 | TTRL: Test-Time Reinforcement Learning
Pull LLMs up by its own bootstraps!
2025-05-10 23:47:49
1417
原创 论文分享➲ ACL24 Oral:Learn or Recall? Revisiting Incremental Learning with Pre-trained Language Models
在预训练语言模型中,遗忘真的是灾难性的吗?
2025-05-09 16:28:48
714
原创 论文分享➲ ICLR2025 Oral | Scaling and evaluating sparse autoencoders
这是一篇由 OpenAI 于 2024 年 6 月发表的研究论文,并已被 ICLR 2025 接收为 Oral 论文,获得了三个满分的高分(Scores:[10,10,10,8,3])。文章主要探索了如何将SAE扩展到更大规模的语言模型上进行训练,以便通过SAE来对语言模型内部特征进行可解释性分析。此外,作者还提出了一套更为先进的 SAE 评估指标,用于全面评估SAE质量。
2025-05-09 15:55:14
1275
原创 论文分享➲ Improving Reasoning Performance in Large Language Models via Represen | 通过表征工程提升大语言模型的推理性能
通过简单的表征工程,无需训练即可提升LLM的推理性能。
2025-03-22 20:46:15
1076
原创 论文分享➲ INTERNET OF AGENTS | 智能体互联网:编织异构智能体网络用于协同智能
是时候给Agent们建立一个属于它们的互联网了
2025-01-19 19:08:48
1648
2
原创 论文分享➲ ACL22:Few-Shot Class-Incremental Learning for Named Entity Recognition | 命名实体识别中的少样本类增量学习
少样本类增量NER?少样本“累”增量NER!
2024-12-12 19:52:39
1297
原创 论文分享➲ ACL24最佳论文:Deciphering Oracle Bone Language with Diffusion Models | 用扩散模型破译甲骨文
AI+甲骨文有没有搞头?
2024-12-01 20:06:33
1824
原创 论文分享➲ Exploring Chain-of-Thought for Multi-modal Metaphor Detection | 探索用于多模态隐喻检测的思维链
隐喻在广告和网络梗图中十分常见。然而,网络梗图的自由形式往往导致高质量文本数据的缺乏。隐喻检测需要对文本和视觉元素进行深度解读,需要大量的常识知识,这给语言模型带来了挑战。为应对这些挑战,本文提出了一个名为 C4MMD 的简练框架,该框架利用思维链(CoT)方法进行多模态隐喻检测。
2024-11-30 08:56:49
2610
原创 论文分享➲ Self-Distillation Bridges Distribution Gap in Language Model Fine-Tuning
本文认为任务数据集与大型语言模型之间的分布差距是主要的根本原因。为解决这一问题,引入了自蒸馏微调(SDFT)这一新颖的方法,该方法通过利用模型自身生成的经过蒸馏的数据集来引导微调,使其与原始分布相匹配,从而弥合分布差距。
2024-11-21 00:28:17
1718
原创 论文分享➲ Mitigating Catastrophic Forgetting in Large Language Models with Self-Synthesized Rehearsal
这项工作提出了自合成回放(SSR),这是一个用于缓解大型语言模型中灾难性遗忘的持续学习框架,能够在回放过程中不依赖真实数据而有效地保留知识。
2024-11-10 16:44:55
1267
原创 论文分享Order-Agnostic Data Augmentation for Few-Shot Named Entity Recognition
本文通过利用命名实体识别中经常被忽视的无序性,提出了一种新颖的数据增强方法 OADA。
2024-11-03 20:20:02
1651
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅