自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(16)
  • 收藏
  • 关注

原创 挑战第十四天:MindSearch深度解析实践

如果启动前端后没有自动打开前端页面的话,我们可以手动用7882的端口转发地址打开gradio的前端页面~ 然后就可以体验MindSearch gradio版本啦~ 比如向其询问:"Generate a report on global climate change." 等待一段时间后,会在页面上输出它的结果。由于硅基流动 API 的相关配置已经集成在了 MindSearch 中,所以我们在一个终端A中可以直接执行下面的代码来启动 MindSearch 的后端。结束后记得在终端中“Ctrl+C”关闭进程。

2024-12-25 18:27:50 749

原创 挑战第十一天:InternVL 部署微调实践

多模态大模型是一种能够处理和理解多种类型数据(如文本、图像、音频、视频等)的深度学习模型。其工作原理主要基于跨模态的交互与融合,通过整合不同模态的数据,提升模型在各类应用中的智能水平。多模态大模型通常采用Transformer架构,并利用注意力机制来建立不同模态之间的关联。这些模型通过对不同模态的数据进行预处理和特征提取,将其转化为模型能够理解的“语言”。例如,在图像文本匹配的任务中,模型需要同时理解图像的内容和文本的含义,进而判断它们的关联性。多模态大模型的核心机制在于跨模态的交互与融合。

2024-12-17 14:34:54 746

原创 挑战第十二天:Lagent:从零搭建你的 Multi-Agent

配置与安装环境:首先来为 Lagent 配置一个可用的环境。等待安装完成后,通过源码安装的方式安装 lagent新建并在中写入下面的代码,这里利用GPTAPI类,该类继承自BaseAPILLM,封装了对 API的调用逻辑,然后利用Streamlit出现以下提示,说明成功:在等待server启动成功后,我们在在本地浏览器中打开。

2024-12-17 14:32:24 744

原创 挑战第十天:LMDeploy 量化部署进阶实践

在终端中,创建一个名为lmdeploy的conda环境,python版本为3.10,创建成功后激活环境并安装0.5.3版本的lmdeploy及相关包,并创建文件夹并设置开发机共享目录的软链接。ssh -CNg -L 23333:127.0.0.1:23333 root@ssh.intern-ai.org.cn -p **** #####****替换为自己的ssh 端口号。的输入提示即启动成功,此时便可以随意与InternLM2.5对话,同样是两下回车确定,输入。网页,新建一个命令终端。

2024-11-21 16:35:20 1659

原创 挑战第九天:OpenCompass 思南评测

OpenCompass是一个一站式的大平台,旨在为大模型评估提供一个公平、开放和可复制的基准。它不仅量化了模型在知识、语言、理解、推理等方面的能力,还推动了模型的迭代和优化。其主要特点包括:OpenCompass工作流程图对模型和数据集支持丰富:支持20+HuggingFace和API模型,70+数据集的模型评估方案,约40万个问题,从五个维度全面评估模型的能力分布式高效评测:提供了分布式评测方案,支持了本机或集群上的计算任务并行分发,实现评测并行式的提速。

2024-11-13 10:32:23 1735

原创 挑战第八天:XTuner 微调

对于 LoRA 或者 QLoRA 微调出来的模型其实并不是一个完整的模型,而是一个额外的层(Adapter),训练完的这个层最终还是要与原模型进行合并才能被正常的使用。对于全量微调的模型(full)其实是不需要进行整合这一步的,因为全量微调修改的是原模型的权重而非微调一个新的 Adapter ,因此是不需要进行模型整合的。,在使用前我们需要准备好三个路径,包括原模型的路径、训练好的 Adapter 层的(模型格式转换后的)路径以及最终保存的路径。

2024-11-12 14:44:19 1874

原创 挑战第七天:Llamaindex RAG 实践

安装python 依赖包,并安装 Llamaindex和相关包以及Sentence Transformer 模型。进入开发机后,创建新的conda环境,命名为。镜像,然后在资源配置中,使用。的选项,然后立即创建开发机器。后,点击 选择镜像 使用。然后安装相关基础依赖。

2024-11-12 09:59:53 658

原创 挑战第七天:「多模态对话」与「AI搜索」

知乎回答:目前生成式AI在学术和工业界有什么最新进展?

2024-11-11 10:18:23 358

原创 挑战第七天:Llamaindex RAG 实践

按照教程指引进行环境安装、模型部署:前面虚拟环境创建与安装包的下载耐心等待,完成后不使用 LlamaIndex RAG(仅API)向模型提问"Rocket是什么"得到的回答并不理想:

2024-11-07 16:38:41 185

原创 挑战第六天:结构化提示词

可能是缺少基础加上课程没有详细介绍每步操作,导致看懂了什么是提示词,有什么作用。但是上手要交作业,发现根本找不到入口!

2024-11-07 11:47:58 636

原创 挑战第五天:初识“书生大模型”

书生大模型具备了通用工具调用能力,使模型在需要工具的时候自动编写一段Python程序,以综合调用多种能力,将得到的结果糅合到回答过程中,大幅拓展模型能力。InternLM2-Chat --在Base基础上,经过SFT和RLHF面向对话交互进行了优化,具有很好的指令遵循,共情聊天和调用工具的能力。:通过书生万卷1.0多模态预训练语料库,模型能够处理文本、图像、视频等多种模态的数据,为跨模态应用提供了可能。:书生大模型实现了从数据、预训练、微调、部署到评测的全链条开源,为开发者提供了极大的便利。

2024-11-04 13:48:56 307

原创 挑战第四天:HF/魔搭/魔乐社区

在CodeSpace中修改html代码并上传,其中需要提前获取。进入Spaces创建Static(首次登陆需要邮箱验证)登陆HF社区,并找到。

2024-11-01 14:40:20 247

原创 挑战第三天:GIT基础

https://github.com/InternLM/Tutorial/pull/2223

2024-10-31 17:05:22 113

原创 挑战第三天:Python基础(二)

书生浦语InternLM2.5是上海人工智能实验室于2024年7月推出的新一代大语言模型,提供1.8B、7B和20B三种参数版本,以适应不同需求。请帮我从以下``内的这段模型介绍文字中提取关于该模型的信息,要求包含模型名字、开发机构、提供参数版本、上下文长度四个内容,以json格式返回。该模型在复杂场景下的推理能力得到全面增强,支持1M超长上下文,能自主进行互联网搜索并整合信息。发现格式错误,参考大佬教程修正。

2024-10-31 10:36:38 316

原创 挑战第二天:Python基础(一)

通过Python3 解决:两个字符串:ransomNote 和 magazine ,判断 ransomNote 能不能由 magazine 里面的字符构成。如果可以,返回 true;否则返回 false。

2024-10-30 18:12:15 191

原创 挑战第一天:完成端口映射,成功显示WEB UI

易错点1:VScode远程连接开发机需要选择Linux系统。关键点2:VScode中需要提前安装好。关键点1:必须关闭代理,懂得都懂。Python的扩展包!

2024-10-29 18:10:56 224

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除