LLM NLP theoretical papers

Large Language Models Are Zero-Shot Time Series Forecasters. NeurIPS 2023.

主要工作

本文的工作不同于利用LLM骨干的方法,是完全零样本的,并且不需要微调

提出了有效的时间序列数据标记化方法,并将离散分布转换为连续值的灵活密度。

  • 有效地将时间序列编码为数字字符串
  • 适应LLMs的离散分布以连续密度形式进行建模,该连续密度可以表示复杂的多模态分布

方法

  1. Tokenization:用空格分开每个数字以强制每个数字进行单独标记,并使用逗号分隔时间序列中的每个时间步长。
  2. Rescaling:为了避免在输入非常大时浪费令牌,将值缩小到百分位数为1的重采样时间序列值。
  3. Sampling/Forecasting:从LLMs中抽取多个样本,并使用每个时间步的样本统计信息构建点估计或概率预测。
  4. Continuous likelihoods:通过在每个离散桶内放置均匀分布,将LLMs的离散分布转换为连续密度。
  5. Language models as flexible distributions:LLMs能够表达灵活的分布,这对于时间序列数据至关重要,因为它们可以捕捉多模态和重尾分布。

What is a Number, That a Large Language Model May Know It? arxiv 2025.2

主要工作

相同的数字序列(例如“911”)可能被视为数字或字符串。本文探究了LLM对于数字的二元性的理解能力。

Injecting Numerical Reasoning Skills into Language Models. ACL 2020.

主要工作

(1)本文提出了一种通用方法,假设可以自动生成数据,则可以向LM注入其他技能。

(2)GENBERT和用于生成大量综合示例的简单框架应用于基于文本的数字推理任务, 实验证明了方法的有效性,表明GENBERT成功地学习了数值技能。

Do NLP Models Know Numbers? Probing Numeracy in Embeddings. EMNLP 2019.

主要工作

为了探究LLMs是如何获得数字推理能力的,本文在最大值辨识(synthetic list maximum)、数字解码和加法任务上对 token 嵌入方法(如 BERT、GloVe 等)进行了分析。

Large language models are zero-shot reasoners. NeurIPS 2022.

主要工作

本文探究了LLMs在基于chain of thought的零样本/少样本任务上的表现。

Representing Numbers in NLP: a Survey and a Vision. NAACL 2021.

Context information can be more important than reasoning for time series forecasting with a large language model. arXiv:2502

本文通过探索各种现有和提出的提示技术,研究了LLM在时间序列预测中的特性。推测在时间序列预测中,提供适当的上下文信息可能比特定推理提示更为关键

Chain-of-Thought Prompting Elicits Reasoning in Large Language Models. NeurIPS 2022.

主要工作

研究了生成思维链(即一系列中间推理步骤)是如何显著增强大语言模型(LLM)处理复杂推理任务的能力。这种方法是指在提示词中加入一些作为示例的思维链。

Visual Instruction Tuning. NeurIPS 2023.

主要工作

  1. 本文建立了一套处理流程,将 image-text pairs 转换成了 instruction-following 形式,转换使用的是 chatgpt 和 GPT4。
  2. 构造了一个大的多模态模型 LMM,将 CLIP 作为 visual encoder,将 Vicuna 作为 language encoder,然后在生成的 instructional vision-language 数据上进行端到端的微调。

Instruction tuning for large language models: A survey. arxiv 2023.8.

万字长文解读大语言模型指令调优最新综述 - 知乎

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值