- 博客(21)
- 收藏
- 关注
原创 SD-WebUI forge支持flux模型。算力互联forge镜像使用教程
首先要选择使用我的镜像创建容器实例1.进入Jupyter2.双击打开左边main.ipynb,打开脚本3.选中运行的代码,点击上面的运行符合4.出现7860端口开放,说明运行成功。
2024-10-02 00:33:56
1524
原创 L1 - Llamaindex RAG实践
我们发现internlm2-chat-1_8b模型并不知道xtuner具体是什么,回答也是基于已经训练的知识库的内容去描述,并没有达到我们想要的效果,接下来就结合RAG的方式来查看效果。经过RAG优化,可以看到模型已经具备了回答“什么是xtunner”的能力。
2024-08-09 18:42:22
355
原创 L1-浦语提示词工程实践
近期研究发现,大型语言模型(LLMs)在比较浮点数字时表现不佳。例如,一些模型错误地认为 13.8 < 13.11。这个问题在internlm2-chat-1.8b和internlm2-chat-7b等模型中也存在。
2024-08-03 00:40:39
374
原创 L1- 8G 显存玩转书生大模型 Demo
嘿,想要在8G显存的设备上玩转书生大模型吗?跟着这份指南,你就能轻松搞定!我们将一起探索三个精彩的任务,让你亲身体验AI的魅力。准备好了吗?让我们开始吧!
2024-08-02 23:32:28
466
原创 L1-书生浦语大模型简介
在各种能力评测中的表现,包括语言知识、推理、数学、代码等方面,同时还介绍了模型的应用和数据分析功能。20B 模型在推理数学代码等方面的性能优于 GPT-3.5 和 Germini Pro,模型在综合性能方面达到同量级的开源模型领先水平,模型内生的计算能力和数据分析功能能够处理复杂的任务和数据分析。提供不同尺寸和类型的模型,支持多语言和多模态任务。
2024-08-02 23:18:39
590
原创 Python task
请实现一个wordcount函数,统计英文字符串中每个单词出现的次数。返回一个字典,key为单词,value为对应单词出现的次数。
2024-07-21 17:28:30
754
原创 第二节笔记及作业
等工具下载模型的示例代码,以及软链接和终端清除的方法,供参考使用。文档中提供了详细的步骤和配置命令,可参照文档执行。界面,点击“创建开发机”配置开发机系统。环境配置完成后,进入到新创建的。通过左侧文件夹栏目,双击进入。点击“进入开发机”选项。文档最后部分提供了使用。
2024-05-31 23:04:47
1122
原创 InternLM笔记
视频首先讨论了通用人工智能的发展趋势,从专用模型向通用大模型的转变。然后介绍了书生模型在过去几个月的升级,包括支持多模态、8K语境和不同尺寸的模型,以及在语言建模能力、对话交互和智能体框架方面的提升。最后,视频介绍了书生·浦语大模型的不同尺寸和类型,以适应不同的使用需求。- 总结了书生葡语的全链路开源开放体系,包括数据、预训练、微调、部署、评测和应用等环节。- 书生·浦语模型的升级:支持8K语境、多模态和不同尺寸的模型。- 不同尺寸的模型:7B轻量级模型和20B重量级模型。
2024-05-28 20:37:16
271
原创 第七节:OpenCompass 大模型评测实战
上海人工智能实验室科学家团队正式发布了大模型开源开放评测体系“司南”(OpenCompass2.0),用于为大语言模型、多模态模型等提供一站式评测服务。开源可复现提供公平、公开、可复现的大模型评测方案。全面的能力维度五大维度设计,提供 70+ 个数据集约 40 万题的模型评测方案,全面评估模型能力。丰富的模型支持已支持 20+ HuggingFace 及 API 模型。分布式高效评测一行命令实现任务分割和分布式评测,数小时即可完成千亿模型全量评测。多样化评测范式。
2024-05-03 17:50:50
1957
原创 第六节:Lagent & AgentLego 智能体应用搭建
Lagent 是一个轻量级开源智能体框架,旨在让用户可以高效地构建基于大语言模型的智能体。同时它也提供了一些典型工具以增强大语言模型的能力。
2024-05-03 17:32:37
1867
原创 XTuner 微调笔记+作业
XTuner 是一个大语言模型和多模态模型微调工具箱,由 MMRazor 和 MMDeploy 联合开发。🤓:以配置文件的形式封装了大部分微调场景,即使是零基础的非专业人员也能轻松开始微调。🍃:对于参数量为 7B 的LLM,微调所需的最小显存仅为 8GB,适用于消费级显卡和colab环境。
2024-05-03 17:19:42
563
原创 XTuner 微调
准备好了数据集后,接下来我们就需要准备好要用于微调的模型。而对于全量微调的模型(full)其实是不需要进行整合这一步的,因为全量微调修改的是原模型的权重而非微调一个新的 adapter ,因此是不需要进行模型整合的。如果只使用上面的数据微调模型可能会出现过拟合的问题,即模型丢失了基础的能力,只会成为某一句话的复读机,“我是面壁者的小助手,内在是上海AI实验室书生·浦语的1.8B大模型哦” ,到后面的话无论我们再问什么,得到的结果也就只能是回答这一句话了,模型已经不会再说别的话了。
2024-05-03 17:13:35
258
原创 第三节作业:茴香豆语言模型测试
最后,运行茴香豆知识助手测试了搭建的助手效果。RAG技术通过结合检索和生成的方法,利用外部知识库来生成更准确、更丰富的回答。它能够解决传统语言模型在处理知识密集型任务时可能遇到的问题,如幻觉、知识过时等,提供更准确的回答、降低推理成本、实现外部记忆。在介绍了RAG技术后,笔记详细说明了如何在开发机上配置环境,包括创建基础环境、下载基础文件和安装茴香豆等步骤。总的来说,这份笔记提供了一个详细的步骤,指导如何搭建基于RAG技术的知识助手,为使用者提供了一种有效利用外部知识库提升语言模型性能的方法。
2024-04-07 20:49:33
423
原创 第二节作业+笔记:轻松玩转书生·浦语大模型趣味 Demo
界面,点击 创建开发机 配置开发机系统。镜像,然后在资源配置中,使用。的选项,然后立即创建开发机器。通过左侧文件夹栏目,双击进入。后,点击 选择镜像 使用。
2024-04-02 11:28:47
213
1
原创 第一节笔记
InternLM2 是作者开发的一种新型开源大型语言模型,其性能优于 LLaMA、Qwen等的开源模型。3.Internlm2模型性能优于同量级Qwen ChatGLM Baichuan等的开源模型。有优秀的API调用能力,模型原生的计算能力和配合解释器的计算能力都比较优秀。1.模型微调方案 XTuner 以及推理方案LMDeploy。4.. 使用Lagent 智能体框架创建多模态AI。主要优点是兼容性强,性能开销小,运行效率高。
2024-04-01 22:52:36
283
原创 超强LLM模型:InternLM2-Chat-1.8B体验
体验超强LLM模型InternLM2-Chat-1.8B后,我深感震撼和惊叹。这款模型展现了前所未有的语言理解和生成能力,几乎可以和人类进行自然而流畅的对话。其超大规模的1.8B参数使得其具备了广泛而深入的知识储备,能够回答各种各样的问题,并且在交流中展现出高度的逻辑性和连贯性。在与该模型的交流中,我感受到了它的灵活性和智慧。它不仅可以回答简单的问题,还能够进行深入的讨论,甚至能够理解并回应抽象的概念。它的回答通常准确而富有见地,让人仿佛在与一个具有广博知识和逻辑思维的人交流。
2024-04-01 22:45:44
361
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅