- 博客(41)
- 收藏
- 关注
原创 书生大模型实战营第三期进阶岛第三课——LMDeploy 量化部署实践
我们可以看出InternLM2.5将输入’Compute (3+5)*2’根据提供的function拆分成了"加"和"乘"两步,第一步调用function add实现加,再于第二步调用function mul实现乘,再最终输出结果16.此时代表我们成功地使用本地API与大模型进行了一次对话,如果切回第一个终端窗口,会看到如下信息,这代表其成功的完成了一次用户问题GET与输出POST。新开一个窗口查看gpu占用情况,约为12G,对比默认的cache-max-entry-count 0.8 少占用了8G左右。
2024-08-29 19:18:13
1260
原创 书生大模型实战营第三期进阶岛第二课——Lagent 自定义你的 Agent 智能体
接下来构建自己的智能体实现一个调用 MagicMaker API 以完成文生图的功能。
2024-08-29 13:54:33
772
原创 书生大模型实战营第三期基础岛第四课——llamaindex+Internlm2 RAG实践
ps:这个数据集是复制电子书的,所以上面会有一些乱码和符号,需要自己清理一下,否则模型也是回答不出来。运行脚本,看看RAG技术后模型输出是否有认识xtuner。这样使用时服务器即会自动使用已有资源,无需再次下载。模型居然认为xtuner是一个音乐播放器。整了点医学知识后,回答就专业很多。模型回答的很随意,看着像瞎编。运行脚本,看模型输出效果。模型给出了我们想要的答案。现在从openxlab的。再次部署模型,并访问。
2024-08-28 22:21:04
1079
原创 书生大模型实战营第三期基础岛第六课——OpenCompass 评测 InternLM-1.8B 实践
打开 opencompass文件夹下configs/models/hf_internlm/的hf_internlm2_chat_1_8b.py ,贴入以下代码。上图就是internlm2-chat-1.8b 模型在 ceval 数据集上的性能。新建文件夹 opencompass用于存放课程相关文件。从27号测到28号,等待十几个小时后,测评终于完成了。解压完成,目录下会出现一个data文件夹。看到这行就说明一切正常,开始评测。
2024-08-28 09:49:24
480
原创 书生大模型实战营第三期基础岛第五课——XTuner微调个人小助手认知
对于 LoRA 或者 QLoRA 微调出来的模型其实并不是一个完整的模型,而是一个额外的层(Adapter),训练完的这个层最终还是要与原模型进行合并才能被正常的使用。(由于前面的课程我把端口映射改成7860,如果没改的话是默认8501)打开浏览器,访问 http://localhost:7860。漫长的安装终于完成,验证一下安装结果。现在经过微调后模型已对自我有了认知。直接修改脚本文件第18行。漫长的训练终于完成了。
2024-08-27 15:41:14
893
原创 书生大模型实战营第三期基础岛第三课——浦语提示词工程实践
安装tmux,tmux可以让在用户断开服务器连接后继续运行程序。在左下角的系统提示输入以下提示词,让模型变成一个提示词生成专家。创建tmux session 后激活conda环境。部署internlm2-chat-1.8b模型。将系统生成的提示词再次填入左下角的系统提示。创建文件夹langgpt用于存放项目文件。按ctrl+B D退出tmux界面。输入以下内容让模型帮我们编写提示词。可以看到模型对比浮点数字时表现正常。输入以下代码测试部署是否成功。接下来部署前端与模型交互界面。创建chat_ui.py。
2024-08-27 15:37:38
221
原创 书生大模型实战营第三期基础岛第二课——8G 显存玩转书生大模型 Demo
在浏览器上访问 http://localhost:6006/ 体验internVL2-2B。在浏览器上访问 http://localhost:6006/ 体验xcomposer。对比xcomposer,internVL2-2B不知道就是不知道,不会编个答案。创建requirements.txt,写入依赖包。将以下代码复制到cli_demo.py中。因为依赖前面已经安装过了,所以直接部署。创建文件夹DEMO存放课程相关的文件。创建cli_demo.py。然后就可以DEMO,启动。部署xcomposer。
2024-08-23 18:00:13
400
原创 书生大模型实战营第三期基础岛第一课——书生大模型全链路开源体系
https://internlm.intern-ai.org.cn/https://github.com/InternLM/InternLM卓越的推理性能:在数学推理方面取得了同量级模型最优精度,超越了 Llama3 和 Gemma2-9B。有效支持百万字超长上下文:模型在 1 百万字长输入中几乎完美地实现长文“大海捞针”,而且在 LongBench 等长文任务中的表现也达到开源模型中的领先水平。 可以通过 LMDeploy 尝试百万字超长上下文推理。更多内容和文档对话 demo 请查看这里。工具调用能
2024-08-23 17:59:14
1076
原创 解决图片导入Excel后变成横向问题
1、千万不要把这个bat文件放到共享盘里运行,哪怕你是共享盘的管理员也要慎重(血的教训),你可以把图片抽出来处理完再放回去。2、我处理的图片只有十几k,如果是几M的图片的话需要自己微调一下等待图片打开的时间和等待图片保存的时间。后来经过多次尝试,发现只要用windows自带的画图软件打开图片,然后再保存即可,没错就是这么简单。最近有同事遇到图片打开的时候是竖向的,导入Excel后就变成横向了。我猜大概是用了某些软件做处理(例如压缩分辨率)但是没处理干净。我在网上搜了一下,没找到直接的答案。
2024-08-22 18:54:08
1011
原创 【InternLM 大模型实战】作业与笔记汇总
作业2:https://github.com/xiaomile/InternLM-homework/tree/main/%E4%BD%9C%E4%B8%9A1。作业3:https://github.com/xiaomile/InternLM-homework/tree/main/%E4%BD%9C%E4%B8%9A2。作业4:https://github.com/xiaomile/InternLM-homework/tree/main/%E4%BD%9C%E4%B8%9A3。
2024-01-29 10:44:31
547
原创 【InternLM 大模型实战】第六课
有部分第三方功能,如代码能力基准测试 Humaneval 以及 Llama格式的模型评测,可能需要额外步骤才能正常运行,如需评测,详细步骤请参考。例如基座模型评测的时候需要给一个instruct(即给个格式,让大语言模型按照格式回答),对话模型则直接像人一样提问和回答就好了。主观评测:对一些主管的问题,如诗歌的谁写的更优,这种评测要做自动化的则需要用模型(如chatgpt)去评测模型。客观评测:无论模型怎么回答,只要能从回答中提取到我们想要的关键词,那就是正确的。进行全面的模型测试。
2024-01-22 01:32:51
1045
原创 【InternLM 大模型实战】第五课
1、将训练好的模型在特定的软硬件环境中启动的过程,使模型能够接收输入并返回预测效果2、为了满足性能和效率的需求,常常需要对模型进行优化,例如模型压缩和硬件加速LMDeploy 是LLM在英伟达设备上部署的全流程解决方案。包括模型轻量化、推理和服务。
2024-01-15 01:25:14
1321
原创 【InternLM 大模型实战】第四课
LLM下游应用中,增量预训练和指令跟随是经常会用到的两种微调模式傻瓜式:以配置文件的形式封装了大部分微调场景,0基础的非专业人员也能一键开始微调轻量级:对于7B参数量的LLM,微调所需的显存仅为8GB,满足大部分消费级显卡基于 InternLM-chat-7B 模型,用 MedQA 数据集进行微调,将其往医学问答领域对齐此时,我们重新建一个文件夹来玩“微调自定义数据集”把前面下载好的internlm-chat-7b模型文件夹拷贝过来。别忘了把自定义数据集,即几个 .jsonL,也传到服务器上。
2024-01-13 15:34:33
1284
2
原创 【InternLM 大模型实战】第三课
LangChain 框架是一个开源工具,通过为各种LLM提供通用的接口来简化应用程序的开发流程,帮助开发者自由构建LLM应用LangChain的核心模块:链(Chains):将组件组合实现端到端应用,通过一个对象封装实现一系列LLM操作例如检索问答链,覆盖实现了RAG的全部流程实例化一个基于 InternLM 自定义的 LLM 对象llm.predict("你是谁")
2024-01-09 16:36:45
953
原创 【InternLM 大模型实战】第二课
大模型定义:人工智能领域中参数量巨大,拥有庞大计算能力和参数规模的模型InternLM支持在数千个GPU集群上进行训练,并在单个GPU上进行微调并保持卓越的性能优化。在1024个GPU上训练时,可以实现近90%的加速效率Lagent是一个轻量级,开源的大语言模型的智能体框架,用户可以快速地将一个大语言模型转变成多种类型的智能体,并提供了一些典型工具为大语言模型赋能优势:1、为用户打造图文并茂的专属文章2、设计了高效的训练策略,为模型注入海量的多模态概念和知识数据,赋予其强大的图文理解和对话能力。
2024-01-06 13:34:56
987
原创 【InternLM 大模型实战】第一课
大模型受到广泛关注,chatgpt发布后两个月内月活破亿。大模型是通向人工智能的关键,是从专用模型到通用模型的重要途径。专用模型是针对单一任务,而通用大模型是则是面向多任务,多模态,是面向更高阶的智能的潜在途径。
2024-01-04 01:34:24
1328
原创 DB-GPT 初体验chat data
随着大模型的发布迭代,大模型变得越来越智能,在使用大模型的过程当中,遇到极大的数据安全与隐私挑战。在利用大模型能力的过程中我们的私密数据跟环境需要掌握自己的手里,完全可控,避免任何的数据隐私泄露以及安全风险。基于此,我们发起了DB-GPT项目,为所有以数据库为基础的场景,构建一套完整的私有大模型解决方案。此方案因为支持本地部署,所以不仅仅可以应用于独立私有环境,而且还可以根据业务模块独立部署隔离,让大模型的能力绝对私有、安全、可控。
2023-11-10 17:58:33
1769
3
原创 SSRS 开发中 visual studio 的bug(错误号)
二、是预览的bug,这其实是一种错觉,因为预览了一次后,visual studio就会以这次的数据集为主,后面你怎么修改数据集,这个预览的数据类型都是保持之前的类型,而后面增加的字段也同样是显示错误号。[在这里插入图片描述](https://img-blog.csdnimg.cn/73090766995b4c37b3cb721257092775.png)[在这里插入图片描述](https://img-blog.csdnimg.cn/25c2081c5b874d53a5f4f44d6d831a2c.png)
2023-10-26 10:53:37
141
原创 用qpython 3C写个扫码器
收到反馈说gitee的链接失效,github的又打不开,所以写个博文。很简单,点击项目和脚本,找到刚刚新建的项目,点击运行即可。后面重新进入app后怎么打开之前新建的项目呢?
2023-09-26 23:40:24
406
原创 FastComposer: Tuning-Free Multi-Subject Image Generation with Localized Attention中文摘要
扩散模型在文本到图像生成方面表现出色,尤其在以主题驱动的个性化图像生成方面。然而,现有方法由于主题特定的微调而效率低下,因为需要大量的计算资源,而这限制了扩散模型高效部署的可能性。此外,现有方法在多主题生成方面存在困难,因为它们经常在不同主题之间混合特征。因此我们提出了FastComposer,它可以实现高效、个性化、多主题的文本到图像生成,而无需进行微调。FastComposer利用图像编码器提取的主题嵌入来增强扩散模型中的通用文本条件,只需进行前向传递即可基于主题图像和文本指令进行个性化图像生成。
2023-09-05 16:38:28
523
原创 深度学习预训练与MMPretrain
mmpretrain包含丰富主干网络,包括近期非常火热的主干网络(Vit,swintransformer)和经典的主干网络(vgg,resnet)等等同时也支持多模态学习,例如clip。
2023-06-06 09:33:58
508
原创 openmmlab AI实战营第二期第一课 openmmlab 综述
无论身处什么领域,都可以站在OpenMMLab巨人肩膀上,使用开箱即用的模型开发自己的人工智能项目首推的就是目标检测算法库MMDetection,它可以解决目标检测实例分割全景分割和目标追踪任务这是OpenMMLab在业界最有影响力的算法库,在github上有多达2万+starOpenMMLab是开源算法体系,它已经提供了各个计算机视觉方向的大量开箱即用的预训练模型和算法。也就是说OpenMMLab的算法研究员已经帮我们把这些cv任务的常见算法都现好了!
2023-06-01 19:45:40
164
原创 openmmlab 笔记7
palette = [[128,0,0],[0,128,0],[0,0,128]] 指定好对应的颜色。classes=[‘a’,‘b’,‘c’] 指定好对应的类别。用mim安装mmengine mmcv两个基础库。在github下载时加上-b dev1.x。config目录下有各种模型的demo。把语义分割和原图叠加在一张图上显示。在自己的数据集上训练语义分割模型。根据自己的cuda安装。
2023-02-11 16:55:08
193
原创 openmmlab笔记6
解决方法:fcn :基于低层次和高层次特征图分别产生类别预测,升采样到原图大小,再平均得到最终结果。预测图的升采样:由于卷积分类后的输出尺寸小于输入,而分割需要原图尺寸,所以需要对输出图进行上采样。2、转置卷积——可学习的升采样层 (反卷积?复用卷积计算:在滑窗上计算卷积,再将卷积核用于原图上计算特征进行分类。原图(细节丰富,语义贫瘠)—— 高层次特征图(细节贫瘠,语义丰富)按颜色分割:相同相邻颜色的像素为同一物体,按图像处理的方法分割。由于上采样得到的图比较粗糙,细节丢失严重。逐级融合高低层次特征。
2023-02-10 23:42:50
109
原创 openmmlab 笔记5
mmdetection 环境搭建工具 openbayes新建一个,选择gpu 镜像选pytorch数据绑定交互方式 jupyter数据集 简单的水果图片pip 安装mmdetection 依赖库pytorch。
2023-02-08 23:33:02
496
原创 openmmlab 笔记2
今天说的内容太硬核了,每一页ppt都是一篇论文,因此记得不全经验:学习率和batch size 相关,如果batch size 放大k倍,则学习率也要放大k倍。还有一种情况,就是论文是1卡配置,你复现的时候是4卡,那也相当于是batch size放大了4倍,学习率也要放大4倍早停策略:损失率不降反升,或者停滞不前,就要cut掉数据增强:随机变换,几何变换,色彩变换,随机遮挡增强模型泛化性,扩充训练样本,减少过拟合标签平滑:类别标注可能是错,使用标签平滑训练校准网络。
2023-02-03 19:03:21
152
原创 关于sql server 语句在存储过程执行比直接执行慢的原因
简单概括就是,要给查询的参数设限制(尤其是允许参数为空的情况),不要让它放飞自我。
2023-02-02 10:09:29
1675
原创 Finereport 获取单元格控件下拉框的文本再赋值给左边的单元格
【代码】Finereport 获取单元格控件下拉框的文本再赋值给左边的单元格。
2023-01-19 10:42:35
1358
原创 简单的图像中箭头方向识别
简单的图象是箭头方向识别,对图像做卷积,从矩阵里找最大值作为这个卷积核的得分,然后四个卷积核里得分最高的那个作为这个图像箭头所指的方向
2022-07-13 13:04:20
3856
1
原创 python 计算速度比较
计算任务:斐波拉契数列第40项实现方式:1、python编译成C后执行计算2、python实现闭包并编译成C后执行计算3、纯python实现闭包后执行计算4、纯python实现递归加速后执行计算5、纯python执行计算计算结果如下:python编译成C|斐波拉契数列第40项为:102334155,耗时:11.8078316秒python实现闭包并编译成C|斐波拉契数列第40项为:102334155,耗时:1.2500000000414957e-05秒纯python实现闭包|斐波拉契数列
2022-05-19 12:28:34
1327
原创 关于sybase bcp命令报错ct_connect(): Request server name not found
sybase bcp Requested server name not found.解决方法
2021-12-09 16:40:05
1346
原创 关于selenium firefox 代理设置踩坑
之前一直以为代理设置就是简单的加上这些语句就可以了profile.set_preference("network.proxy.type", 1)profile.set_preference("network.proxy.http", ip) profile.set_preference("network.proxy.http_port", int(port)) profile.set_preference("general.useragent.override", generate_user
2020-06-04 17:58:27
1485
2
去模糊 deblurgan-v2 预训练权重 fpn-mobilenet
2023-04-04
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人