- 博客(8)
- 问答 (1)
- 收藏
- 关注
原创 L2G2000 Lagent 自定义你的 Agent 智能体
开发机选择 30% A100,镜像选择为 Cuda12.2-conda。首先来为 Lagent 配置一个可用的环境。等待安装完成接下来,我们通过源码安装的方式安装 lagent。
2025-02-20 14:16:00
1556
原创 L0G4000 玩转魔搭社区
使用Hugging Face平台、魔搭社区平台(可选)和魔乐社区平台(可选)下载文档中提到的模型(至少需要下载config.json文件、model.safetensors.index.json文件),这里我选择的魔搭平台。4,internlm2_5-7b-聊天 考虑到7B的模型文件比较大,这里我们先采用modelscope的cli工具(当然hugging face也有)来下载指定文件,在命令行输入以下命令。3,创建我们的demo目录。
2025-02-09 16:48:10
280
原创 L0G2000 Python 基础知识
2,下面是一段调用书生浦语API实现将非结构化文本转化成结构化json的例子,其中有一个小bug会导致报错。打断点查看下LLM返回的文本结果。造成本bug的原因与LLM的输出有关,学有余力的同学可以尝试修正这个BUG。本段demo为了方便大家使用debug所以将api_key明文写在代码中,这是一种极其不可取的行为!出现bug的原因在于大模型返回的内容仍然不是合法JSON格式,我们通过如下代码将其转化为合法形式。作业提交时需要有debug过程的图文笔记,必须要有。
2025-02-07 18:55:43
590
原创 L1G6000 评测 InternLM-1.8B 实践
OpenCompass 提供了和两种方式。其中 API 模式评测针对那些以 API 服务形式部署的模型,而本地直接评测则面向那些可以获取到模型权重文件的情况。
2025-01-24 16:12:21
1927
原创 L1G4000 InternLM + LlamaIndex RAG 实践
给模型注入新知识的方式,可以简单分为两种方式,一种是内部的,即更新模型的权重,另一个就是外部的方式,给模型注入格外的上下文或者说外部信息,不改变它的的权重。第一种方式,改变了模型的权重即进行模型训练,这是一件代价比较大的事情,大语言模型具体的训练过程,可以参考。第二种方式,并不改变模型的权重,只是给模型引入格外的信息。类比人类编程的过程,第一种方式相当于你记住了某个函数的用法,第二种方式相当于你阅读函数文档然后短暂的记住了某个函数的用法。进入开发机后,在终端运行以下代码,创建新的conda环境,命名为。
2025-01-23 14:28:31
739
原创 书生大模型全链路开源开放体系笔记
书生大模型全链路开源开放体系通过其全面的技术支持、丰富的工具资源、广泛的应用场景以及强大的社区支持,为人工智能领域的发展注入了新的活力。书生大模型的开源体系涵盖了从数据收集、标注到模型预训练、微调,再到模型部署、评测以及最终的应用落地的整个过程。这一全链路的开源策略,不仅降低了大模型应用的门槛,还为个人和组织的创新发展提供了极大的便利。书生大模型(InternLM)全链路开源开放体系以其全面的技术支持和丰富的资源,为学术界、工业界以及广大开发者提供了一个强大的平台,促进了大模型技术的高质量发展和产业落地。
2025-01-19 16:55:45
227
有关esp8266连接阿里云
2024-12-13
FPGA程序,有关$readmemb的问题
2024-05-19
为什么最后排序结果出问题了?
2022-12-27
这个程序哪里有问题?
2022-11-09
它不能运行,警告说这里f可能为零
2022-10-26
为什么这里会有警告?
2022-10-15
有没有人能看看这个函数功能怎么实现的
2022-10-01
所以这个程序的功能怎么实现的?
2022-09-20
为什么输出结果和预设不一样
2022-09-19
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅