- 博客(24)
- 收藏
- 关注
原创 基础岛——8G 显存玩转书生大模型 Demo
InternLM-XComposer2-VL-1.8B 是基于 InternLM2 的视觉语言大模型,其擅长自由形式的文本图像合成和理解。使用 LMDeploy 完成 InternLM2-Chat-1.8B 模型的部署,并生成 300 字小故事,记录复现过程并截图。使用 LMDeploy 部署 InternLM-XComposer2-VL-1.8B 模型。Streamlit Web Demo 部署 InternLM2-Chat-1.8B 模型。
2024-08-08 00:41:01
437
原创 入门岛——01
查看秘钥:Get-Content C:/Users/yourusername/.ssh/id_rsa.pub。因每次输入密码较为麻烦,可以配置SSH密钥进行SSH远程连接。ssh-keygen -t rsa 一路回车。复制登录命令粘贴至powershell。复制粘贴密码至powershell。校验失败就刷新一下。
2024-07-02 22:53:27
333
原创 队列与优先队列
当我们去电影院排队的时候,队前面的人先离队进入影院。用先进先出,First in first out来形容。打印机作业设置,网络应用程序的后台任务等都有队列的存在。顺序存储:借助数组描述,在python中用List实现。队列也是用来处理临时数据的有限制的数组。链式存储:对于数据增删频繁的队列。限制1:只能在末尾插入数据。限制2:只能读取开头的数据。限制3:只能移走开头的数据。
2024-05-25 15:20:11
132
原创 深度优先搜索
我们可以用二维数组描述关系数据,但是在数组中检查数据关系需要一一检查,有一种更好的方式是将数据用图来表示。例如,人与人之间的好友关系,用图的术语来说,每个节点都是一个节点,每条线都是一条边,两个节点通过一条线联系在一起,即为,顶点相邻。从起始节点,沿着一条路径走到最后一个节点,直到无法访问,回溯到起始节点相邻节点,重复第一步,直到完成搜索。需要记住起始节点、相邻节点。可用递归和堆栈实现深度优先搜索。要想找到图这种数据结构中数据的关系,需要对图的数据进行遍历。遍历方式有两种:深度优先和广度优先。
2024-05-22 20:47:02
161
1
原创 堆栈与单调栈
处理临时数据就像去饭店点菜,在菜品上完之前,订单是有用的,但吃完后我们就无需保留订单。临时数据就是一些处理完后不再有用的数据,没有保留的必要。上菜时还要先给早下单的客人上菜,我们要注意按什么顺序去处理。栈和队列正好能把数据按顺序处理,并在处理完后将其抛弃。栈和队列都是用来处理临时数据的工具,是多加了一些约束的条件的数组。存储数据的方式跟数组一样,都是将元素排成一行,只不过还有3条约束。只能在末尾插入数据。只能读取末尾的数据。只能移除末尾的数据。
2024-05-22 00:04:24
139
原创 第6Lagent & AgentLego 智能体应用搭建
创建文件夹配置conda环境安装 Lagent 和 AgentLego下载 demo 文件:
2024-05-07 13:34:11
197
原创 第六课Lagent & AgentLego 智能体应用搭建
应当满足3个条件:感知环境。采取动作改变环境。运用推理能力理解信息、解决问题、产生推断、决定动作。
2024-04-23 16:26:00
502
原创 第三章 搭建知识库
Weaviate:开源向量数据库,支持相似度搜索和最大遍及相关性搜索,还可以支持结合多种搜索算法的混合搜索,从而搜索提高结果的相关性和准确性。Chroma:轻量级向量数据,拥有丰富的功能和简单的API,具有简单易用、轻量的优点,但功能简单,不支持GPU加速,适合初学者使用。当处理大量甚至海量的向量数据的时候,向量数据库索引和查询算法的效率会比传统数据库高。向量数据库通过计算与目标向量的余弦距离、点积等获取与目标向量的相似度。向量数据库使用高效的索引和查询算法来加速向量数据的存储和检索过程。
2024-04-22 23:39:55
315
原创 第二章 使用 LLM API 开发应用
我们每一次访问大模型的输入为一个 Prompt,而大模型给我们的返回结果则被称为 Completion。
2024-04-21 00:14:11
260
1
原创 第四课:【XTuner 微调个人小助手认知】笔记
q1:为什么要微调?A:目前现有模型都是基座模型,是为了一般性任务进行预训练,运用于实际特定领域效果不佳,需要进行领域内微调q2:两种Finetune范式:A2:增量预训练微调:基座模型学习新知识(文章、书籍、代码)指令跟随微调:模型学会对话模板,根据人类质量进行对话(高质量对话,问答数据)高质量标注原始数据——>改为标准格式数据——>添加对话模板——>Tokenized数据——>添加Label——>开始训练标准数据格式添加对话模板,不同厂家有不同的模板。
2024-04-19 12:47:39
1052
原创 task01 llm-universe LLM 介绍
llm——Large Language Model(大语言模型),源于语言模型。语言模型:(1)用于预测一个句子中的序列出现的概率。其计算方法从最开始的基于语料库中各个序列出现的频率进行预测,由于无法预测语料库中之前没有出现的序列。进行改进后,计算方法为:(2)计算一个序列中前n-1个序列出现的条件下,n个序列出现的概率,由于随着序列n的增加,计算量过大,模型难以继续学习。
2024-04-16 23:57:10
1077
1
原创 第五课:【LMDeploy 量化部署 LLM&VLM实战】笔记
LMDeploy是什么?软件:涵盖LLM全套轻量化、部署、和服务解决方案。(降低缓存占用)KV缓存管理器:将不用的缓存暂时放置在内存中,等需要使用的时候放入显存。量化(不用的时候量化)——反量化(使用的时候量化)新版本LMDeploy:不仅支持语言模型,也支持视觉模型。
2024-04-16 18:44:11
430
1
原创 第三课:茴香豆:零代码搭建你的 RAG 智能助理作业
讲师:北辰老师文档地址:https://github.com/InternLM/Tutorial/blob/camp2/huixiangdou/readme.mdB站视频课程地址:https://www.bilibili.com/video/BV1QA4m1F7t4/?internstudio地址:https://sso.openxlab.org.cn/login?
2024-04-16 16:02:47
1181
1
原创 第二课:玩转书生·浦语大模型全趣味demo
四、如何完成第三个实战任务,即使用基于书生葡语二大语言模型的图文多模态大模型进行图文写作和图像理解。一、书生葡语社区大模型角色扮演特别幸运小组的组长任玉鹏,将带领大家完成书生葡语趣味demo的相关内容,包括基础练习、进阶部分和实战部署等。- 完成第二个实战任务,关闭STREAMLET,准备后续任务。- 打开图片理解实战,复制代码,等待本地端口映射完成。- 运行程序,配置本地端口环境,耐心等待模型加载完成。- 需要升级开发机配置,安装环境包,下载相关代码资源。- 完成图片生成任务,关闭软件,重新开启终端。
2024-04-15 22:53:08
400
1
原创 Interlm笔记——第一课:书生·浦语大模型全链路开源体系
视频首先讨论了通用人工智能的发展趋势,从专用模型向通用大模型的转变。然后介绍了书生模型在过去几个月的升级,包括支持多模态、8K语境和不同尺寸的模型,以及在语言建模能力、对话交互和智能体框架方面的提升。最后,视频介绍了书生·浦语大模型的不同尺寸和类型,以适应不同的使用需求。- 总结了书生葡语的全链路开源开放体系,包括数据、预训练、微调、部署、评测和应用等环节。- 介绍了智能体的框架,包括轻量级智能体框架和多模态智能体工具箱。- 书生·浦语模型的升级:支持8K语境、多模态和不同尺寸的模型。
2024-04-15 22:34:49
437
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人