- 博客(14)
- 收藏
- 关注
原创 第一期书生浦语大模型实战营的学习笔记和基础作业集合
https://blog.youkuaiyun.com/m0_49908454/article/details/135403403 https://blog.youkuaiyun.com/m0_49908454/article/details/135451357 https://blog.youkuaiyun.com/m0_49908454/article/details/135449163 https://blog.youkuaiyun.com/m0_49908454/article/details/135581616http
2024-01-29 14:40:43
304
原创 Xtuner微调InternLM-Chat-7B笔记
"output": "我是{}的小助手,内在是上海AI实验室书生·浦语的7B大模型哦".format(name)"output": "我是臭屁娃娃的小助手,内在是上海AI实验室书生·浦语的7B大模型哦""output": "我是臭屁娃娃的小助手,内在是上海AI实验室书生·浦语的7B大模型哦"# 创建一个json文件,json中内容可参考下方(复制粘贴n次做数据增广,数据量小无法有效微调,下面仅用于展示格式)"input": "请做一下自我介绍","input": "请做一下自我介绍",
2024-01-19 11:46:21
1378
1
原创 书生-浦语大模型_第三次作业笔记
常见的两种微调策略分别是增量预训练和指令跟随。其中增量预训练是指给模型投喂一些新知识,这些新知识是目标领域有关的文本内容,让基底模型学习到一些新知识。而指令跟随是指让模型学会对话模板,根据人类指令进行对话。
2024-01-14 12:39:41
538
1
原创 书生-浦语大模型_第三次作业
使用 LMDeploy 以本地对话、网页Gradio、API服务中的一种方式部署 InternLM-Chat-7B 模型,生成 300 字的小故事本地对话API服务网页Gradio
2024-01-14 12:29:16
469
1
原创 书生-浦语大模型_实战营第一节
是一种基于深度学习的自然语言处理技术,它可以将输入的句子或段落重新排列成一个Deorder-only是一种基于深度学习的自然语言处理技术,它可以将输入的句子或段落重新排列成一个不同的顺序,但仍然保持其语义和语法的正确性。在这个过程中,模型的权重会根据与真实标签的差异进行调整,其目的是让模型能够捕捉到标签数据中特定于某一任务的模式和特点,从而使模型的预测结果更加精确,更好地适应某一特定任务。其显著特点是可以通过极小的显存实现大模型的训练和微调,例如对于7B参数量的语言模型,所需的最小显存仅为8GB。
2024-01-05 14:01:45
989
2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人