
实现方式
对比【有Context】和【没有Context】,影响Logit的计算,从而降低幻觉:
1. 对比生成的方式,一个是有上下文,一个没有,计算时,分别得到两个Logit分布;
2. 综合两个logit分布(加权相减的方式),得到最终的logit分数,然后进行next-token predict
实现原理
对于有些pretrain阶段过于牢记的知识,使用了Context不一定能够直接改正过来;
使用对比的方式,可以得到使用了Context之后,相对提升最大的词分布,非常简单的方式。
本文探讨了在自然语言处理中,通过对比有上下文和无上下文的Logit计算来减少模型对过度记忆知识的依赖,提出了一种简单方法,即结合两个logit分布并通过加权相减来得到更精确的预测。这种方法有助于修正pretrain阶段出现的错误知识。

对比【有Context】和【没有Context】,影响Logit的计算,从而降低幻觉:
1. 对比生成的方式,一个是有上下文,一个没有,计算时,分别得到两个Logit分布;
2. 综合两个logit分布(加权相减的方式),得到最终的logit分数,然后进行next-token predict
对于有些pretrain阶段过于牢记的知识,使用了Context不一定能够直接改正过来;
使用对比的方式,可以得到使用了Context之后,相对提升最大的词分布,非常简单的方式。
1424

被折叠的 条评论
为什么被折叠?