- 博客(11)
- 收藏
- 关注
原创 L1G5xtuner实践
训练正常进行,耗时大致在1h左右,867iterations,30%A100,24G显存占用。XTuner 微调个人小助手认知任务,记录复现过程。环境配置及准备相关数据集,安装xtuner等。运行模型,在web进行模拟对话。进行模型格式转换加模型合并。对于微调数据进行修改。
2024-12-18 21:34:48
309
原创 L1G4000 InternLM + LlamaIndex RAG 实践
在配置环境过程中,教程中用到的是cuda12.0镜像,不过创建开发机只有cuda12.2和11.7镜像,这里的不一致,似乎在安装Llamaindex和相关的包一步时出现版本不一致的问题,出现重复安装确认版本、卸载重新安装。基于 LlamaIndex 构建自己的 RAG 知识库,寻找一个问题 A 在使用 LlamaIndex 之前 浦语 API 不会回答,借助 LlamaIndex 后 浦语 API 具备回答 A 的能力。下载Sentence Transformer模型。可以看到已经下载成功。
2024-12-18 11:55:50
296
原创 L1G3000 浦语提示词工程实践
不过我在更改了提示词之后还是会发现,模型在对单词进行拆分时会出现一些错误:比如这里它将strawberry拆分成了[s, t, r, a, w, b, e, r, r, e, r, y],但应该是 [s, t, r, a, w, b, e, r, r, y]。利用对提示词的精确设计,引导语言模型正确回答出“strawberry”中有几个字母“r”。直接询问模型会发现出现错误。
2024-12-16 22:22:08
329
原创 L1G2000 玩转书生「多模态对话」与「AI搜索」产品
可以进行图像内容文字识别,图像内容理解,但是目前还并不支持多模态的交互,原本以为可以实现图片输入输出,或者文生图。询问:最近大火的中国 3A 大作《黑神话·悟空》它讲了一个什么样的故事?进行python相关语法知识的讲解。
2024-12-16 21:18:56
288
原创 L1G1000 书生大模型全链路开源体系
书生大模型(Shusheng Large Model)是中国科学院自动化研究所开发的一个自主大模型体系,目标是打造一个从模型训练、优化到部署的全链路平台,专注于自然语言处理(NLP)、计算机视觉(CV)等领域。其设计目标是构建可自主控制、适用于多种应用场景的大模型生态系统,推动国产人工智能(AI)技术的发展。书生大模型的全链路开源开放体系为大模型的开发、训练和部署提供了完整的支持。
2024-12-12 20:02:34
259
原创 L0G4000玩转HF/魔搭/魔乐社区
创建项目internlm_study_L0_4项目并利用git提交到远程仓库。安装git lfs,需要获取用户的Access Tokens。之后就可以在Hugging face的个人仓库看到model。hugging face spaces的使用。运行codespaces并下载相关的包。上传了相关config.json文件。
2024-12-12 12:25:56
233
原创 InternLM-L0G2000-python基础知识
在一个激活的 conda 环境中,使用 pip install 安装包时,默认情况下,包会被安装到当前激活的 conda 环境的 site-packages 目录下,而不是全局的 Python 环境。使用conda install 也是会下载到当前已激活的环境中。出错的原因是res的返回值并不是一个直接有效的json字符串,而是包含了一些额外的文本,需要先提取JSON部分,才能进行。对代码做出修改,采取正则表达式提取JSON。可以看见res的内容如下所示。在终端配置api_key时。代码运行结果如图所示。
2024-12-10 21:31:17
417
原创 InternLM第四期闯关任务L0G1000——linux基础知识
通过VScode remote explorer远程连接开发机。搭建开发机并完成了对开发机的连接。运行hello_world.py。
2024-12-05 16:55:08
236
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人