大模型(LLM)是一种人工智能模型,旨在理解和生成人类语言。它们在大量的文本数据上进行训练,可以执行广泛的任务,包括文本总结、翻译、情感分析等等。LLM的特点是规模庞大,包含数十亿的参数,帮助它们学习语言数据中的复杂模式。这些模型通常基于深度学习架构,如转化器,这有助于它们在各种NLP任务上取得令人印象深刻的表现。
2022年底,OpenAI 推出的基于 GPT-3.5 的大型语言模型 ChatGPT,由于其优秀的表现,ChatGPT 及其背后的大型语言模型迅速成为人工智能领域的热门话题,吸引了广大科研人员和开发者的关注和参与。
本周精选了5篇LLM领域的优秀论文,为了方便大家阅读,只列出了论文标题、AMiner AI综述等信息,如果感兴趣可点击查看原文,PC端数据同步(收藏即可在PC端查看),每日新论文也可登录小程序查看。
如果想要对某篇论文进行深入对话,可以直接复制论文链接到浏览器上或者直达AMiner AI页面:
https://www.aminer.cn/chat/g/explain?f=cs
1.SnapKV: LLM Knows What You are Looking for Before Generation
论文介绍了大型语言模型(LLM)在处理大量上下文时,键值(KV)缓存起到了关键作用。但是,随着输入长度的增加,KV缓存的扩展对内存和时间效率提出了挑战。为了解决这个问题,文章提出了SnapKV,一种创新的、不需要微调的方法,在保持实际应用中性能的同时,高效地最小化KV缓存大小。研究发现在生成过程中,模型中的每个注意力头始终关注特定的提示注意力特征。同时,这个