- 博客(29)
- 收藏
- 关注
原创 hot100算法刷题:二叉树的层序遍历
使用队列的数据结构实现先将根节点入队列,然后不断从队列中取出节点并访问,然后将该节点的左右孩子依次放入队列,重复过程直到队列为空用队列q1来遍历,队列的类型为treenode*,用二维向量v1,报错输出的结果,因为题目中的返回类型就是二维向量。按层来存储节点的值,也就是每一层的节点值都要存储在一个里,然后再把这个一维向量添加到二维向量v1中。可以借助一个内层循环来处理每一层的节点。记录当前层的节点数量;
2025-03-16 16:26:59
154
原创 Hot100算法刷题:双指针
计算出宽(索引相减)、高(取短板小的那个,min),设置全局变量是最大的体积,和当前的体积。暴力求解,两个for循环遍历,第一层固定住长方形的左边,第二层控制长方形的右边。依次计算每一步的体积,然后更新最大体积的值。注意:长方形左边取值:0~len-1, 右边取值:1-len;但报错:超出时间限制。观察到, 说明线比较多。所以暴力求解不行。要优化算法。
2025-03-14 14:59:08
811
原创 (报错解决)打开vscode自动弹窗:适用于 Linux 的 Windows 子系统必须更新到最新版本才能继续。
情况:打开vscode突然总是跳出弹窗,显示以下内容。
2025-03-06 17:28:05
1179
原创 开发基于提示工程的大语言模型(LLM)应用——学习笔记
本文是学习笔记。学习通过提示工程与大语言模型进行程序化的交互。将从最基本的开始,比如使用哪些模型,以及如何向它们发送提示词并查看响应。将逐步构建更复杂的提示词,并学习 LangChain 为我们提供的、用于与大语言模型交互的丰富工具。
2025-02-26 11:46:32
947
原创 (已解决)vscode终端的虚拟环境显示两个环境名
在我这台服务器上设置的是每个terminal初始化自动激活base环境。这个问题应该是vscode python插件自动激活环境和conda的自动激活环境之间的不兼容导致的显示问题,解决方法是关闭conda的自动激活环境。但是后面我又手动点了vscode右下角的python环境,点完之后就有2个环境名称了。输入完之后发现还是又两个环境名,还需要设置完成后,重启一下终端,才会生效。之前还是一个正常的环境名,是我正常在终端通过。的时候出现了显示两个环境名的问题。还有一种简单粗暴方式。
2025-02-25 14:36:41
923
4
原创 报错git解决:remote: Password authentication in git is no longer supported. You must use a user access to
我再git push 时候,需让我登录用户名、密码,输入后,报错说git不在支持Huggingface的账号密码认证了,需要token。
2025-02-20 17:41:52
480
原创 解决git报错:fatal: unable to access ‘https://github.com/...‘: Failed to connect to github.com port 443 a
想要从github上下载代码,使用git clone url 远程克隆仓库到本地,但是报错了,说我不能连接服务器。打开“编辑代理服务器”————手动设置代理————打开————直接保存,然后到终端中配置一下这个刚刚开启的手动代理。要么就临时修改非法字符的系统保护,然后下载,下载后恢复保护,看下面的方法1。这样就可以清除 Git 的代理设置,让其直接连接网络进行操作。要么自己手动下载zip文件到对应的地址。清空代理设置:在终端中输入下面的命令。就可以出现github认证的界面啦!在window搜索:代理,
2025-02-19 10:56:49
5297
1
原创 LMDeploy 量化部署实践——L2G3
实践通过LMDeploy工具对InternLM2.5模型进行了量化部署与API封装,展示了如何通过量化技术降低模型显存占用并提升推理效率。首先,配置了30% A100的开发环境,安装了必要的依赖包。接着,使用LMDeploy对InternLM2.5模型进行了W4A16量化和KV cache量化,成功将模型显存占用从23GB降低至13.5GB。通过FastAPI封装了本地API,实现了与大模型的对话功能。最后,利用Function call功能,模型成功完成了“加”与“乘”的简单函数调用。
2025-02-16 22:09:09
950
原创 internVL的本地部署微调实践——L2G4
成功部署和微调了Video-LLM模型。首先,配置了训练和推理环境,安装了必要的依赖包。接着,使用LMDeploy进行模型部署,并通过网页应用体验了与InternVL的对话功能。在微调阶段,使用了FoodieQA数据集,通过XTuner工具对InternVL模型进行了LoRA微调,解决了模型在识别特定食物时的错误。微调后,模型在识别肠粉和锅包肉等食物时的准确性显著提升。
2025-02-16 21:56:51
1011
原创 茴香豆——好用的知识问答工具——L2G5
茴香豆——知识问答工具是由书生·浦语团队开发的一款开源、专门针对国内企业级使用场景设计并优化的知识问答工具。在基础 RAG 课程中我们了解到,RAG 可以有效的帮助提高 LLM 知识检索的相关性、实时性,同时避免 LLM 训练带来的巨大成本。在实际的生产和生活环境需求,对 RAG 系统的开发、部署和调优的挑战更大,如需要解决群应答、能够无关问题拒答、多渠道应答、更高的安全性挑战。因此,根据大量国内用户的实际需求,总结出了的茴香豆知识问答助手架构,帮助企业级用户可以快速上手安装部署。
2025-02-16 10:27:19
878
原创 本地部署MindSearch(开源 AI 搜索引擎框架),然后上传到 hugging face的Spaces——L2G6
MindSearch 是一个开源的 AI 搜索引擎框架,具有与 Perplexity.ai Pro 相同的性能。🤔 任何你想知道的问题:MindSearch 通过搜索解决你在生活中遇到的各种问题📚 深度知识探索:MindSearch 通过数百个网页的浏览,提供更广泛、深层次的答案🔍 透明的解决方案路径:MindSearch 提供了思考路径、搜索关键词等完整的内容,提高回复的可信度和可用性。💻 多种用户界面:为用户提供各种接口,包括 React、Gradio、Streamlit 和本地调试。
2025-02-15 21:45:00
1632
2
原创 从零搭建你的 Multi-Agent(基于Lagent结构)——L2G2
介绍了如何使用Lagent框架构建自定义Agent和Multi-Agent系统。首先,通过配置环境和安装依赖,搭建了一个基于InternLM2.5的Web Demo,展示了如何调用Arxiv文献检索工具。接着,通过自定义天气查询工具,展示了如何扩展Agent的能力。最后,构建了一个多智能体博客写作系统,包含内容生成和批评优化两个代理,协同完成博客的生成与优化。整个过程涵盖了Agent的自主性、交互性和适应性,展示了Lagent框架在增强大语言模型能力方面的强大功能。
2025-02-15 16:32:57
1283
原创 使用OpenCompass 评测大模型——L1G6
本文主要内容:使用 OpenCompass 评测 InternLM2.5-1.8B-Chat 模型在 ceval 数据集上的性能,记录复现过程,报错及解决方式。多模态大模型的评测方法有哪些?OpenCompass 提供了和两种方式。其中 API 模式评测针对那些以 API 服务形式部署的模型,而本地直接评测则面向那些可以获取到模型权重文件的情况。
2025-02-14 11:40:30
605
原创 (实战)Xtuner微调InternLM大模型——L1G5
本文记录了使用Xtuner微调InternLM大模型的过程,重点包括环境配置、数据准备、模型训练、权重转换、模型合并以及WebUI对话的实现。首先,conda创建Python-3.10虚拟环境并安装Xtuner,随后准备并修改微调数据,确保数据格式符合要求。接着,使用InternLM2.5-7B-Chat模型进行微调,过程中遇到显存不足的问题,最终通过调整GPU资源解决。微调完成后,将模型权重转换为HuggingFace格式,并与原模型合并,生成了最终的微调模型。最后,通过Streamlit的web界面
2025-02-10 15:06:22
1206
原创 在HuggingFace中上传自己的模型
在本地微调了一个模型,想把我的模型上传到Huggingface平台上,下面是上传的操作步骤,供大家参考学习!创建一个 Python 脚本(如。
2025-02-10 14:35:32
1135
2
原创 (构建知识库)LlamaIndex框架+InternLM+RAG 实践——L1G4
介绍了使用LlamaIndex框架与大模型InternLM结合构建RAG知识库的实践。RAG通过外部信息增强模型能力,无需改变模型权重。文章详细描述了在Intern Studio中配置开发环境、安装LlamaIndex及相关依赖、下载Sentence Transformer模型和NLTK资源的步骤。通过对比,展示了RAG技术在提升模型回答能力方面的优势。最后,文章介绍了将LlamaIndex与Streamlit结合部署为Web应用,并提供将其部署到Hugging Face Space的步骤,展示知识库构建
2025-02-06 16:26:11
794
原创 (初五迎财神!)基于LangGPT架构的prompt编写 教程——L1G3
本章深入探讨了提示工程(Prompt Engineering)的理论与实践,涵盖从基础概念到高级应用的全面学习路径。我们首先定义了提示词(Prompt)及其在生成式AI中的关键作用,随后介绍了CRISPE和CO-STAR等提示词设计框架,以及LangGPT结构化提示词方法,该方法借鉴面向对象程序设计,提供模块化、标准化的编写方法论,包括基本结构、编写技巧和常用模块。通过具体案例,如自动化生成提示词和小红书文案助手,展示了LangGPT在实际应用中的强大功能。最后,通过“一键写书”系统的开发实战,详细讲解了项
2025-02-02 15:38:08
1100
原创 Day5-玩转书生《多模态对话》、《AI搜索》产品——L1G2
基于原生的 InternLM2.5 最新 Chat 模型 (InternLM2.5-20B) 搭建聊天机器人应用。MindSearch是一个基于多智能体框架的AI搜索框架,通过模仿人类思维的过程,提高处理复杂查询处理能力,提供高效、精准的消息。Q:你是一个计算机的大学老师,你即将教授一门课程《计算机网络》,请你挑出重点,整理一份计算机网络的学习知识点、背诵知识点的手册。question :目前生成式AI在学术和工业界有什么最新进展?体验该模型的多模态能力,从图片OCR、图片理解等方面,展开对话。
2025-02-01 12:07:20
170
原创 (新年快乐) 在HuggingFace部署大模型,魔搭上传模型——L0G4
文档详细介绍了如何在Hugging Face和魔搭社区平台上进行大模型的上传与部署。首先,通过Hugging Face下载大模型internlm2_5的配置文件,并使用Git工作流进行项目管理和上传。接着,使用Hugging Face的Space平台将模型部署为可交互的Web应用。文档还介绍了如何在魔搭社区平台上进行模型的下载和上传,并提供了相关的命令行操作步骤。整个过程涵盖了从模型下载、配置、上传到部署的完整流程,适合需要在机器学习平台上进行模型管理和部署的用户参考。
2025-01-30 21:35:17
1319
原创 (新年快乐!)实战学习git——L0G3
第二步:点击Developer settings,第三步:点击Personal access tokens,第四步:点击Generate new token,第五步:给token起一个描述名字(随便起),第六步:设置token多久后过期,有效期自己选择。然后我们要将这个提交到远程的电脑(其实就是自己的GIthub电脑,因为我现在在操作开发机,对于开发机而已,github的账号,就是远程仓库)上。注意:进入分支,一定要把工作目录进正确,否则会出错,我这里因为关闭终端,刚才的cd的目录情况了。
2025-01-29 11:33:14
671
原创 vscode的debug学习、python调用大模型api-L0G2
有时我们会遇到想将整个虚拟环境保存到制定目录来共享,比如在局域网内,或者在InternStudio的团队开发机间共享。可以替换为我们想要debug的python文件,后面可以和直接在命令行中启动python一样跟上输入的参数。点击下一步,直接跳转到下一次的断点处,(我点了4次,),所以我这里是i=4,右面那个“蓝色箭头,下面一个点”是逐步运行下一行。,但share目录只有读权限,所以要安装额外的包时我们不能直接使用pip将包安装到对应环境中,需要安装到我们自己的目录下。大佬懂得可以帮回答下,感激。
2025-01-27 22:28:26
1574
原创 L0G1-ssh密钥、远程连接、Linux
开发机常用命令连接上开发机以后,可以使用hostname查看开发机名称,也就是internStudio的用户算力ID,使用uname -a查看开发机内核信息,使用查看开发机版本信息,使用nvidia-smi查看GPU的信息,这些命令我们后面都会讲到,如果想要退出远程连接,输入两次exit就可以了。
2025-01-27 20:00:30
755
原创 (已解决)DNS缓存存在问题
今天早上开电脑时,发现连不上网了,拔掉网线连接WiFi仍然上不了网。但是手机连了同一个WiFi,手机可以联网,所以确认时电脑问题。
2025-01-15 09:34:12
1423
5
原创 (已解决)conda activate 报错,Window
conda activate deepfake报错,我的环境名称是:deepfake。Window环境下的cmd中激活base
2025-01-14 17:21:58
461
原创 # conda创建环境报错CondaHTTPError错误
然后在“C:\Users\Administrator(你的用户名)”目录下找到“.condarc”文件并打开,若channels下面有-default,删除-default,保存即可。由于HTTP错误依旧存在,继续上网寻找答案,看到有人说将“.condarc”文件中的https改成http才可以,姑且一试,若成功了,你到这里也可以结束了。解决:尝试手动删除,c盘/user/7372/.condarc 文件,删除完成后,在此创建虚拟环境,成功!若以上能解决你的问题,当然很好,若不能,请继续往下看。
2025-01-09 13:16:34
962
6
原创 VS Code运行时没有C/C++:gcc.exe生成和调试活动文件,只有(gdb)启动和(Windows)启动
开了服务器的窗口导致c++扩展安装失败
2024-10-30 16:02:51
794
原创 解决Vue创建项目时出错:
错误:vue : 无法加载文件 C:\Users\73722\AppData\Roaming\npm\vue.ps1,因为在此系统上禁止运行脚本。以管理员方式运行终端,在终端输入命令:Set-ExecutionPolicy RemoteSigned。运行vue create meet1时出错。
2024-05-06 21:42:33
419
原创 ## VMware中安装MacOS中遇到问题## 无法检测此光盘映像中的操作系统。您需要指定要安装的操作系统。
无法检测此光盘映像中的操作系统。您需要指定要安装的操作系统
2024-04-25 10:14:54
3435
4
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人