
书生·浦语
文章平均质量分 71
卷到起飞的数分
这个作者很懒,什么都没留下…
展开
-
书生·浦语 大模型(学习笔记-9)大模型微调的相关概念 & 预训练 与 微调 & 全量微调FFT 与 PEFT的区别
预训练和微调的区别,这个很关键。 这个地方主要是微调的角度不同,简单理解:前一个是相当于直接修改大模型的参数,后一个是更加精确的回答问题,让回答的泛化(其他内容的拓展)更少。全量微调:一般指全参数的微调(全量微调),指是一类较早诞生的微调方法,全参数微调需要消耗大量的算力,实际使用起来并不方便(其实就是第二部分的大模型微调)PEFT:特指部分参数的微调方法,这种方法算力功耗比更高,也是目前最为常见的微调方法,比如lora微调、Prefix-Tuning、Prompt Tuning、P原创 2024-04-28 13:14:51 · 876 阅读 · 0 评论 -
书生·浦语 大模型(学习笔记-8)Lagent & AgentLego 智能体应用搭建
还是说,总体模拟人的一个思维过程,逻辑差不多。原创 2024-04-25 21:57:11 · 465 阅读 · 0 评论 -
书生·浦语 大模型(学习笔记-9)OpenCompass 大模型评测实战
个人使用的比较多,这个也是用户能够直观、直接的感觉大模型好坏的一个方法。原创 2024-04-25 20:27:01 · 401 阅读 · 1 评论 -
书生·浦语 大模型(学习笔记-7)LMDeploy 量化部署 LLM-VLM 实践
显存受限访问密集型。原创 2024-04-25 20:07:09 · 425 阅读 · 0 评论 -
书生·浦语 大模型(学习笔记-6)XTuner 实战部署
如果你是在 InternStudio 平台,则从本地 clone 一个已有 pytorch 的环境:# 如果你是在其他平台:# 激活环境# 进入家目录 (~的意思是 “当前用户的home路径”)cd ~# 创建版本文件夹并进入,以跟随本教程# 拉取 0.1.17 的版本源码# 无法访问github的用户请从 gitee 拉取:# 进入源码目录# 从源码安装 XTuner吐槽:下载真的慢,前面这一点准备工作搞了半天。原创 2024-04-25 17:31:28 · 1225 阅读 · 0 评论 -
书生·浦语 大模型(学习笔记-5)XTuner 微调 LLM:1.8B、多模态、Agent
增量与训练和指令微调的区别。原创 2024-04-25 13:40:18 · 342 阅读 · 0 评论 -
书生·浦语 大模型(学习笔记-4)茴香豆 --> 零代码搭建你的 RAG 智能助理(实战搭建)
"mmpose执行提取关键点命令不是分为两步吗,一步是目标检测,另一步是关键点提取,我现在目标检测这部分的代码是demo/topdown_demo_with_mmdet.py demo/mmdetection_cfg/faster_rcnn_r50_fpn_coco.py checkpoints/faster_rcnn_r50_fpn_1x_coco_20200130-047c8118.pth 现在我想把这个mmdet的checkpoints换位yolo的,那么应该怎么操作",原创 2024-04-25 10:34:06 · 860 阅读 · 0 评论 -
书生·浦语 大模型(学习笔记-3)茴香豆 --> 零代码搭建你的 RAG 智能助理
到这似乎终于明白什么是微调了,RAG果然还是很适合个性化助手。果然全部来一遍是最完美的,就是不知道性价比高不高。还可以设置回答和拒答的内容,后端可以多方调用。多元解锁,感觉信息来源相对全面。十一、终于了解完,开始茴香豆相关知识。三、进一步了解:Vector-DB。五、RAG的发展进程(三种模式)七、RAG与微调的区别是什么。这么说茴香豆类似于中间件?一、首先了解什么是RAG。六、RAG的常见优化方法。十四、工作流程(非完整)二、RAG的工作原理。八、模型优化方法比较。原创 2024-04-25 09:19:36 · 239 阅读 · 0 评论 -
书生·浦语 大模型(学习笔记-2)InternLM2 | InternLM2-Chat-1.8B | 浦语·灵笔2 | 小米su7在线识别(AI都认不出Car)
1.首先进入控制台进行环境配置(开始没有开发机),创建后默认只有8小时的使用时间(自己可更改) 2.进入后选择terminal进行后续操作(选择JupyterLab才有改界面)接下来的命令:1.需要创建一个新的目录后进行下载2.创建下载文件(download_mini.py)和运行文件(cli_demo.py)下载文件:运行文件:运行效果如下:下载和部署与前面一个项目的步骤差不多。主要是在启动方面有区别:1.此时需要对端口环境配置本地 2.然后再控制台查看端口和连接密码进行连接3. 连接完成,原创 2024-04-02 10:29:03 · 1105 阅读 · 0 评论 -
书生·浦语大模型(学习笔记-1)
模型与通用人工智能(AGI),大模型通常被视为发展通用人工智能的重要途径。AI研究从专用模型向通用模型转变,在过去的一二十年中,研究重点在于针对特定任务的专用模型。因此随着深度学习理论的突破和技术进步,通用模型成为了AI研究的新焦点,目的就是为了创建能够解决多种问题的灵活、适应性强的模型。能够对上传的Excel文件进行分析确实很惊艳了,有一段时间没有使用大模型,居然发展到这个地步了,太强了。这个就属于千人千面了,每个人的想法不同,最后创造出来的大模型“助手”也不同。第一次看到这样的流程图,瞬间清晰很多。原创 2024-04-02 10:28:34 · 489 阅读 · 0 评论