大模型时代下做科研的思路

文章探讨了如何通过微调参数而非改变基础模型来优化视频类模型,并介绍了提示(prompt)的概念,包括硬提示(hardprompt)和软提示(softprompt)。研究还提到了mixgen模块在多任务中的应用。文章倡导设计模型无关的模块以适应大模型的发展,并提出了编写数据集、因果学习和前馈网络(FFNet)等新方向。此外,文章讨论了少样本学习、零样本学习以及fine-tuning在新话题如chainofthoughtprompting中的应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

总结zhu老师观点

Efficient

1.这篇论文是真的好orz,总结了目前的视频类模型
修改周边的一些参数,来训练,不改基础的模型(太大了。。。没资源没卡)
在这里插入图片描述
引申:

  1. prompt 是你想模型干什么你就给提示(简单来说)
  2. 什么是tuning呢? 就是调可能更好 (设计不同效果不一样)
    hard prompt:固定的
    COOP:soft prompt 自己学
  3. PEFT

5. mixgen——这篇论文 一个模块 几个任务有涨点就行。

怎么利用好大的模型,这样即使大模型不断发展也关我们没什么事情,因为设计的module 是模型无关的。但是任务要新,没什么人做

参考了b站用户CNcreator的评论:我太懒了直接copy了= =
1.Efficient PEFT 参数的有效使用

  1. New directions

3.plug and play 做一些通用的模块,能够广泛引用到一些方向中去 目标函数 loss data argumentation 可以应用到各种领域 选很多的baseline 公平对比说明有效性

4.写数据集,分析为主的文章或者综述论文

Fewshot,zeroshot,或者最多就是Fine Tuning的实验,再加上比较新的topic.比如

Causality Learning 因果学习
Feedforward network FFNet
Language In-context learning
Chain of thought prompting(cot)
在这里插入图片描述
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值