- 博客(14)
- 收藏
- 关注
原创 中秋卷王:蒲语书生InterLM大模型实战闯关-进阶岛-MindSearch 快速部署
随着硅基流动提供了免费的 InternLM2.5-7B-Chat 服务,MindSearch 的部署与使用也就迎来了纯 CPU 版本,进一步降低了部署门槛。在完成注册后,打开 https://cloud.siliconflow.cn/account/ak 来准备 API Key。打开 https://huggingface.co/spaces ,并点击 Create new Space。我们打开 https://account.siliconflow.cn/login 来注册硅基流动的账号。
2024-09-25 14:19:50
924
原创 中秋卷王:蒲语书生InterLM大模型实战闯关-进阶岛-茴香豆:企业级知识库问答工具
知识库可根据根据自己工作、学习或感兴趣的内容调整,如金融、医疗、法律、音乐、动漫等。本次教程所需的模型已经下载到服务器中,所以为本次教程所需的模型建立软连接,然后在配置文件中设置相应路径。选用茴香豆和 MMPose 的文档,利用茴香豆搭建一个茴香豆和 MMPose 的知识问答助手。在运行茴香豆助手的服务器端,输入下面的命令,启动茴香豆 Web UI。从茴香豆仓库拉取代码到服务器,进入茴香豆文件夹,开始安装。执行下面的命令更改配置文件,让茴香豆使用本地模型。创建茴香豆专用 conda 环境。
2024-09-24 16:37:05
743
原创 中秋卷王:蒲语书生InterLM大模型实战闯关-进阶岛-InternVL 多模态模型部署微调实践
总体config文件(/root/InternLM/code/XTuner/xtuner/configs/internvl/v2/internvl_v2_internlm2_2b_qlora_finetune.py)从官网下载数据集并进行去重,保留中文数据,制作成XTuner需要的形式,从share里挪出数据集。:follow 教学文档和视频使用QLoRA进行微调模型,复现微调效果,并能成功讲出梗图。打开数据集,选择第一张图片,把这张图片挪动到InternLM文件夹下面。用官方脚本进行权重合并。
2024-09-24 00:44:00
698
原创 中秋卷王:蒲语书生InterLM大模型实战闯关-进阶岛-LMDeploy 量化部署进阶实践
关闭http://127.0.0.1:23333网页,但保持终端和本地窗口不动,按箭头操作新建一个终端,激活conda环境并启动命令行客户端。:使用结合W4A16量化与kv cache量化的internlm2_5-1_8b-chat模型封装本地API并与大模型进行一次对话。进入创建好的conda环境,并通下命令启动API服务器,部署InternLM2.5模型。针对InternVL系列模型,进入conda环境,执行模型的量化工作。进入创建好的conda环境并输入指令启动API服务器。
2024-09-22 19:11:57
1967
原创 中秋卷王:蒲语书生InterLM大模型实战闯关-进阶岛-Lagent 自定义你的 Agent 智能体
任务要求:使用 Lagent 自定义一个智能体,并使用 Lagent Web Demo 成功部署与调用。
2024-09-21 22:28:33
412
原创 中秋卷王:蒲语书生InterLM大模型实战闯关-基础岛-OpenCompass 评测 InternLM-1.8B 实践
打开 opencompass文件夹下configs/models/hf_internlm/的hf_internlm2_chat_1_8b.py,编写代码。:使用 OpenCompass 评测 internlm2-chat-1.8b 模型在 ceval 数据集上的性能。评测 InternLM2-Chat-1.8B 模型在 C-Eval 数据集上的性能。在configs文件夹下创建eval_tutorial_demo.py。打开eval_tutorial_demo.py 编写代码。
2024-09-21 00:10:40
397
原创 中秋卷王:蒲语书生InterLM大模型实战闯关-基础岛-XTuner 微调个人小助手认知
使用 XTuner 微调 InternLM2-Chat-1.8B 实现自己的小助手认知。本地通过浏览器访问:http://127.0.0.1:8501。本地通过浏览器访问:http://127.0.0.1:8501。选择cuda12.2,资源配置30%A100*1。克隆了Tutorial仓库的资料到本地。一键通过符号链接的方式链接到模型文件。使用tree命令来观察目录结构。从 Github 上下载源码。进入源码目录,执行安装。
2024-09-20 18:49:48
343
原创 中秋卷王:蒲语书生InterLM大模型实战闯关-基础岛-InternLM + LlamaIndex RAG 实践
基于 LlamaIndex 构建自己的 RAG 知识库,寻找一个问题 A 在使用 LlamaIndex 之前InternLM2-Chat-1.8B模型不会回答,借助 LlamaIndex 后 InternLM2-Chat-1.8B 模型具备回答 A 的能力。激活 llamaindex 然后安装相关基础依赖 python 虚拟环境。打开llamaindex_internlm.py 贴入以下代码。打开llamaindex_RAG.py贴入以下代码。安装 Llamaindex和相关的包。
2024-09-19 18:20:03
1716
原创 中秋卷王:蒲语书生InterLM大模型实战闯关-基础岛-浦语提示词工程实践
近期相关研究发现,LLM在对比浮点数字时表现不佳,经验证,internlm2-chat-1.8b (internlm2-chat-7b)也存在这一问题,例如认为13.8<13.11。使用intern-studio开发机,可以直接在路径/share/new_models/Shanghai_AI_Laboratory/internlm2-chat-1_8b下找到模型。InternLM部署完成后,可利用提供的chat_ui.py创建图形化界面,在实战营项目的tools项目中。运行如下命令创建并打开项目路径。
2024-09-18 22:48:16
629
原创 中秋卷王:蒲语书生InterLM大模型实战闯关-基础岛-8G 显存玩转书生大模型 Demo
通过 python /root/demo/cli_demo.py 来启动Demo。通过浏览器访问 http://localhost:6006 来启动Demo。在本地的 PowerShell 中输入以下命令,将端口映射到本地。选择cuda12.2,资源配置10%A100*1。创建目录,存放代码,创建cli_demo.py。cli_demo.py具体代码如下。启动Streamlit 服务。复制如下代码进行环境配置。将代码clone到本地。
2024-09-18 00:01:23
392
原创 中秋卷王:蒲语书生InterLM大模型实战闯关-基础岛-书生大模型全链路开源体系
OpenCompass评测体系。预训练InternEvo。部署LMDeploy。
2024-09-16 19:00:16
396
原创 中秋卷王:蒲语书生InterLM大模型实战闯关-入门岛-Python前置基础
请实现一个wordcount函数,统计英文字符串中每个单词出现的次数。返回一个字典,key为单词,value为对应单词出现的次数。
2024-09-16 18:11:17
1253
原创 中秋卷王:蒲语书生InterLM大模型实战闯关-入门岛-Linux前置基础
进入InterStudio创建开发机,具体配置选择cuda12.2,资源配置10%A100*1。在开发机创建hello_world.py(/share目录之外创建)复制登录命令powershell链接开发机。浏览器输入127.0.0.1:7860。运行hello_world。创建后等待开发机创建成功。查看SSH远程连接栏。
2024-09-16 16:58:54
331
原创 HIT计算机系统大作业——Hello
根据Hello的自白,利用计算机系统的术语,简述Hello的P2P,020的整个过程。Hello的P2P过程P2P,即From Program to Process。用户通过编写代码,得到hello.c程序;在Linux操作系统下,调用C预处理器cpp得到ASCII码的中间文件hello.i;接着调用C编译器ccl得到ASCII汇编语言文件hello.s;然后运行汇编器as得到可重定位目标文件hello.o;最后通过链接器ld得到可执行目标文件hello。
2024-06-14 20:26:28
340
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人