自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(18)
  • 资源 (1)
  • 收藏
  • 关注

原创 第35次CSP认证第三题-补丁应用(50分)

【代码】第35次CSP第三题-补丁应用(50分)

2025-03-26 02:11:23 136

原创 第33次CSP认证第三题 化学方程式配平

【代码】第33次CSP认证第三题 化学方程式配平。

2025-02-11 00:01:20 78

原创 langchain-graph-builder

langchain-graph-builder 是一个基于 FastAPI 构建的后端服务项目,旨在为知识库的创建、管理以及与之相关的对话功能提供接口支持。通过该项目,用户可以方便地创建知识库、上传文件至知识库、获取文件内容、删除知识库、生成知识库文件向量、获取知识库信息、进行大模型流式对话以及 RAG 对话等操作,同时还支持创建知识库图谱。

2025-01-13 22:03:45 302

原创 Java作业解答

【代码】Java作业解答。

2024-11-04 22:55:57 184

原创 书生大模型关卡任务-MindSearch 快速部署

随着硅基流动提供了免费的 InternLM2.5-7B-Chat 服务(免费的 InternLM2.5-7B-Chat 真的很香),MindSearch 的部署与使用也就迎来了纯 CPU 版本,进一步降低了部署门槛。那就让我们来一起看看如何使用硅基流动的 API 来部署 MindSearch 吧。

2024-10-03 17:50:26 1210

原创 书生大模型关卡任务-茴香豆:企业级知识库问答工具

现在我们自己创建知识库同时修改bad_questions这里先不修改。然后我们编写测试问题集,要含有有关的问题和无关的问题。

2024-10-03 15:29:10 1023

原创 书生大模型关卡任务-InternVL 多模态模型部署微调实践

InternVL 是一种用于多模态任务的深度学习模型,旨在处理和理解多种类型的数据输入,如图像和文本。它结合了视觉和语言模型,能够执行复杂的跨模态任务,比如图文匹配、图像描述生成等。通过整合视觉特征和语言信息,InternVL 可以在多模态领域取得更好的表现。对于InternVL这个模型来说,它vision模块就是一个微调过的ViT,llm模块是一个InternLM的模型。对于视觉模块来说,它的特殊之处在。动态高分辨率(Dynamic High Resolution)

2024-10-03 10:42:43 1049

原创 书生大模型关卡任务-LMDeploy 量化部署实践闯关任务

关于Function call,即函数调用功能,它允许开发者在调用模型时,详细说明函数的作用,并使模型能够智能地根据用户的提问来输入参数并执行函数。完成调用后,模型会将函数的输出结果作为回答用户问题的依据。相比使用BF16精度的kv cache,int4的Cache可以在相同显存下只需要4位来存储一个数值,而BF16需要16位。在终端中,让我们输入以下指令,来创建一个名为lmdeploy的conda环境,python版本为3.10,创建成功后激活环境并安装0.5.3版本的lmdeploy及相关包。

2024-10-02 23:22:20 840

原创 书生大模型关卡任务-Lagent 自定义你的 Agent 智能体

Lagent 中关于工具部分的介绍文档位于。继承BaseAction类实现简单工具的run方法;或者实现工具包内每个子工具的功能简单工具的run方法可选被tool_api装饰;工具包内每个子工具的功能都需要被tool_api装饰下面我们将实现一个调用 MagicMaker API 以完成文生图的功能。首先,我们先来创建工具文件:然后,我们将下面的代码复制进入'dongman', # 动漫'guofeng', # 国风'xieshi', # 写实。

2024-10-02 19:01:58 1136

原创 书生大模型关卡任务-OpenCompass 评测 InternLM-1.8B 实践

确保按照上述步骤正确安装 OpenCompass 并准备好数据集后,可以通过以下命令评测 InternLM2-Chat-1.8B 模型在 C-Eval 数据集上的性能。在 --debug 模式下,任务将按顺序执行,并实时打印输出。除了通过命令行配置实验外,OpenCompass 还允许用户在配置文件中编写实验的完整配置,并通过 run.py 直接运行它。运行以下代码,在configs文件夹下创建。在 OpenCompass 中评估一个模型通常包括以下几个阶段:配置 -> 推理 -> 评估 -> 可视化。

2024-10-02 02:54:51 712

原创 书生大模型关卡任务-XTuner 微调个人小助手认知

对于全量微调的模型(full)其实是不需要进行整合这一步的,因为全量微调修改的是原模型的权重而非微调一个新的 Adapter ,因此是不需要进行模型整合的。比如我们这里微调的是书生·浦语的模型,我们就可以匹配搜索。在 PART 1 的部分,由于我们不再需要在 HuggingFace 上自动下载模型,因此我们先要更换模型的路径以及数据集的路径为我们本地的路径。,在使用前我们需要准备好三个路径,包括原模型的路径、训练好的 Adapter 层的(模型格式转换后的)路径以及最终保存的路径。我们可以添加自己的输入。

2024-10-02 00:45:07 854

原创 书生大模型关卡任务-InternLM + LlamaIndex RAG 实践

正常情况下,其会自动从互联网上下载,但可能由于网络原因会导致下载中断,此处我们可以从国内仓库镜像地址下载相关资源,保存到服务器上。:(我们也可以选用别的开源词向量模型来进行 Embedding,目前选用这个模型是相对轻量、支持中文且效果较好的,同学们可以自由尝试别的开源词向量模型) 运行以下指令,新建一个python文件。#创建一个VectorStoreIndex,并使用之前加载的文档来构建索引。#设置全局的llm属性,这样在索引查询时会使用这个模型。回答的效果并不好,并不是我们想要的xtuner。

2024-10-01 22:41:00 818

原创 书生大模型关卡任务-浦语提示词工程实践

近期相关研究发现,LLM在对比浮点数字时表现不佳,经验证,internlm2-chat-1.8b (internlm2-chat-7b)也存在这一问题,例如认为。- Skills: 你拥有数学和计算机科学的知识,能够理解浮点数的表示和比较机制,以及如何设计算法来准确比较它们。- Profile: 你是一位在数值比较领域具有丰富经验的专家,能够准确地识别和比较不同大小的浮点数。在模型回复的过程中,首先获取用户输入的文本,然后处理文本特征并根据输入文本特征预测之后的文本,原理为。

2024-10-01 03:54:32 657

原创 书生大模型关卡任务-8G 显存玩转书生大模型 Demo

2.编写cli_demo.py脚本。3.运行脚本,进行对话。

2024-10-01 02:58:48 168

原创 书生大模型全链路开源开放体系笔记

书生·万卷数据集是一个包含文本、图像-文本、视频等多种模态的数据集,为模型提供了丰富的语言信息和知识基础,使得模型能够更好地理解和生成文本。:数据集中的文本数据,尤其是图像-文本和视频数据,为模型提供了丰富的创作素材,有助于提升模型在内容创作方面的能力。:数据集的多样性和丰富性使得模型在处理不同语言、不同领域和不同格式的文本时,能够展现出更好的理解和生成能力。:数据集在收集和预处理过程中,采用了严格的安全和合规性策略,确保模型在应用时的安全性和合规性。

2024-10-01 02:46:16 358

原创 书生大模型关卡任务-Git 基础知识

PR链接:Comparing InternLM:camp3...666xz666:camp3_5402 · InternLM/Tutorial · GitHub666xz666/InternLM-Learning: 本仓库用于存放书生大模型学习笔记 (github.com)

2024-10-01 02:27:25 198

原创 书生大模型关卡任务-Python 基础知识

如上图,单词被分割,形成列表words。如上图,此时所有标点被换成空格。如上图,此时所有字母变成小写。如上图,最终打印结果。

2024-10-01 00:32:42 209

原创 书生大模型关卡任务-Linux 基础知识

1.ssh连接云主机:2.安装pip包,运行脚本:3.建立端口映射:4.在本地端口看到页面:

2024-09-30 23:30:20 137

DiskInfo64S.exe

DiskInfo64S.exe

2022-12-12

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除