刘知远大模型学习笔记-Delta Tuning

Delta Tuning学习知识

本博客记录我学习B站【清华NLP】课程中的内容与想法,这是本系列第二篇,后续可能还会有更新。


Delta Tuning介绍

  • Prompt Learning对于位置任务不太适用,但是认为可以用于多模态。也就是图片与文本理解。
  • Delta Tuning核心思想:绝大多数参数不变,只微调一小部分模型,优化特别少参数。也就是把解决任务抽象为一小部分参数(Delta Objects)。
    有了预训练大模型,这类方法才有用。

分类:Addition,增量式;Specification,指定式;Reparameterization,重参数化式(现在超级常用的LoRA)。


提示:以下是本篇文章正文内容,下面案例可供参考

一、增量式tuning

代表方法1:Adapters

代表方法1:Adapters
事实上,Adapter就是简单的MLP,双层神经网络,实现上投影与下投影,输入维度与输出相同。
在Transformer架构中加入两个Adapter,只训练Adapter部分,大模型效果可能会更好。
Adapter-tuning
后续改进工作还有把Adapter放在主模型外的,反向传播时不需要经过backbone,更省计算。且进行降维之后还减少内存占用。

代表方法2:Prefix-Tuning

soft token:可以理解为模

### 关于清华大学刘知远老师的大模型课程中的Prompt Learning笔记 在相关资料中提到的学习笔记涵盖了大模型公开课的内容,其中包括第四讲(L4)涉及的 **Prompt learning 和 Delta learning** 的主题[^1]。这些笔记可能包含了关于如何设计有效的提示词以及通过微调等方式提升模型性能的关键知识点。 具体而言,Prompt Learning 是一种利用自然语言指令引导大型预训练模型完成特定任务的技术方法。它强调无需大量数据重新训练整个模型即可实现高效适配新场景的能力。根据已有的参考资料描述,这类技术通常会讨论以下核心概念: - 如何构建高效的 Prompt 结构来指导模型行为; - 使用少量样本调整模型参数的方法及其应用场景; - 对比传统 Fine-tuning 方法的优势与局限性分析。 以下是基于上述理论框架的一个简单 Python 实现案例展示如何自定义 prompt 并测试其效果: ```python def generate_prompt(input_text, task_instruction=""): """Generate a formatted prompt with optional task instruction.""" return f"{task_instruction}\nInput: {input_text}\nOutput:" # Example usage of the function to create prompts for different tasks. if __name__ == "__main__": input_example = "Translate 'hello' into Spanish." custom_task_instr = "You are an AI assistant that translates English words into their corresponding meanings in other languages." full_prompt = generate_prompt(input_example, custom_task_instr) print(full_prompt) ``` 此脚本展示了创建个性化提示的基本逻辑,可以根据实际需求修改 `generate_prompt` 函数内的模板字符串以适应更多类型的 NLP 作业要求。 此外,在强化学习领域也有研究探索人类反馈机制优化对话系统的可能性[^2],这或许可以作为进一步理解交互式 Prompt 设计思路的一种补充视角。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值