Do Large Language Models Mirror Cognitive Language Processing?

大型语言模型与认知语言处理的映射研究
828 篇文章

已下架不支持订阅

本文探讨大型语言模型(LLM)是否模拟人类认知语言处理,通过新方法评估LLM与大脑fMRI信号的一致性。实验显示,模型缩放和对齐训练能提升LLM与大脑的相似性,且这种相似性与LLM性能指标高度相关。

本文是LLM系列文章,针对《Do Large Language Models Mirror Cognitive Language Processing?》的翻译。

大型语言模型是否反映认知语言处理?

摘要

大型语言模型在文本理解和逻辑推理方面表现出了非凡的能力,在许多认知任务中达到甚至超过了人类水平。由于LLM是从人类语言认知的大量文本输出中训练出来的,因此很自然地会问LLM是否反映了认知语言处理。或者LLM在多大程度上类似于认知语言处理?在本文中,我们提出了一种新的方法,在LLM表示和人类认知信号之间架起桥梁,以评估LLM模拟认知语言处理的有效性。我们使用代表性相似性分析(RSA)来测量大脑的16个主流LLM和fMRI信号之间的一致性。我们实证研究了各种因素(例如,模型缩放、对齐训练、指令附加)对LLM大脑对齐的影响。实验结果表明,模型缩放与LLM大脑相似性呈正相关,而对齐训练可以显著提高LLM大脑的相似性。此外,广泛的LLM评估(例如,MMLU、Chatbot Arena)的性能与LLM大脑相似性高度相关。

1 引言

2 相关工作

3 方法

4 实验

5 讨论

6 结论

本文提出了一个框架,通过LLM大脑相似性来评估大型语言模型在多大程度上反映了大脑的认知语言处理。我们研究了模型缩放、对齐训练和指令附加对LLM大脑相似性的影响,并探索了LLM和人类情感表达之间的一致性。实验结果表明,模型缩放和对齐训练都有助于增强LLM大脑的相似性,强调了SFT数据质量在提高LLM大脑相似性中的关键作用。此外,明确的指令附加有助于LLM理解人类意图,而对齐训练提高了对

已下架不支持订阅

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值