- 博客(4)
- 收藏
- 关注
原创 书生浦语XTuner低成本微调实战笔记
人们在这种想法下做了很多设计,尽管每种方法都针对PLM中可训练参数的结构和位置提出了不同的设计,但它们本质上是在适应阶段调整一个“增量”,也就是说可训练参数的一小部分可以放置在PLM中任何位置。例如,GPT-3的香草微调需要更新大约1752.55亿个参数,这在工业界和学术界几乎是不可行的。更大的模型往往会产生更好的性能,例如,生成式预训练变压器3 (GPT-3)9具有1750亿个参数,可以生成前所未有质量的自然语言,并可以在适当的提示下执行各种期望的零射任务,并获得满意的结果。
2024-06-30 11:55:42
445
原创 学习笔记:轻松玩转书生·浦语大模型趣味 Demo
感觉AI的快乐就在于实践,在复刻InternLM-Chat-7B 智能对话 Demo的过程中,本地部署后一个很简单的问题就跑了通宵(2GB的显存)。于是我就跑去矩池云上租服务器,下重金租了48G显存的——复刻浦语灵笔玩玩。好吧,开始租的12G的,环境配好后就报错:outofmemory。感觉整个流程唯一有点卡的就是端口配置,按照教程中生成公钥后,再去租机子,输公钥,同时添加6006的端口,就结了,最后直接点击访问链接即可。有一说一,矩池云有镜像源就是快o(* ̄▽ ̄*)ブ。
2024-06-29 18:32:19
329
原创 《书生·浦语大模型实战营》学习笔记
专用模型:针对特定任务,一个模型解决一个问题,例如围棋领域的alpho go, 语音识别领域的switch board, 人脸识别领域的LFW等。通用大模型:一个模型应对多个任务、多种模态,例如chatgpt, gp four v 等,通过一个模型就能完成文本到文本的转换通用大模型成为了近几年研究的重点。
2024-06-25 19:07:07
832
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人