- 博客(2)
- 问答 (2)
- 收藏
- 关注
原创 P-Tuning 论文翻译
这篇论文由Liu 等 (2023) [1] 提出了一种名为 P-Tuning 的新方法,旨在提高预训练语言模型 (PLM) 在自然语言理解 (NLU) 任务中的性能和稳定性。该方法通过将可训练的连续提示嵌入 (continuous prompt embeddings) 与离散提示 (discrete prompts) 连接起来,以减少离散提示的不稳定性。问题:手动设计的离散提示在 NLU 任务中表现出不稳定性,即使是提示中一个词的改变也可能导致性能显著下降 [1]。方法。
2025-05-29 16:51:24
566
空空如也
oj平台上一直显示presentation error,求指正
2021-10-09
oj平台上一直显示presentation error,求指正
2021-10-06
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅