- 博客(148)
- 收藏
- 关注
原创 书生·浦语大模型升级,突破思维密度,4T数据训出高性能模型
为此,团队提出大规模数据精炼框架,大幅提高了训练数据的质量。基于通专融合的技术路线,研究团队探索了不同类型数据的融合训练方案,使得书生·浦语3.0 同时具备常规对话和深度思考能力,通过系统提示词(system prompt)的控制,可以让单一模型在两种模式间的一键切换,让通用模型具备深度思考能力。高价值数据的合成:基于通专融合的方式,以通用模型快速迭代合成算法,再精选数据训练专用模型,通过在海量天然数据中进行素材挖掘,改进的树状搜索策略,以及多维度质量验证,合成大量内容丰富,质量可靠的高价值数据。
2025-01-17 11:28:56
831
原创 能思考、有记性、不插话,终于可以和AI好好聊天了!书生·浦语灵笔2.5-OL多模态实时交互大模型全面开源
2024年12月12日,上海AI实验室推出多模态实时交互大模型书生·浦语灵笔2.5-OL(InternLM-XComposer2.5-OmniLive),该模型可以通过视觉和听觉实时观察和理解外部世界,自动形成对观察到内容的长期记忆,并可通过语音与人类用户进行对话交谈,提供更自然的大模型交互体验。书生·浦语灵笔2.5-OL的效果实测,展现了高质量的实时视频语音交互能力,不仅支持高精度的实时视觉感知和语音对话,还创新地提出了多模态长期记忆的功能,可以准确回忆看过的内容。调用外部语音合成模块合成最终语音输出。
2024-12-13 15:32:13
529
原创 强推理模型书生InternThinker开放体验:自主生成高智力密度数据、具备元动作思考能力|通专融合探索新进展
上海人工智能实验室(上海AI实验室)致力于通过“”路径探索开放、可控、可信的通用人工智能(AGI),其关键技术之一在于同步提升深度推理与专业泛化能力。2024年11月25日,上海AI实验室展示了自主生成高智力密度数据、具备元动作思考能力的“模型”等一系列创新进展,并开放强推理模型书生InternThinker试用体验。该模型具备长思维能力,并能在推理过程中进行自我反思和纠正,从而在数学、代码、推理谜题等多种复杂推理任务上取得更优结果。(登录后点击左侧InternThinker即可体验)。
2024-11-25 20:57:51
780
原创 基于华为昇腾910B,实战InternLM个人小助手认知微调
本文将带领大家基于华为云 ModelArts,使用 XTuner 单卡微调一个 InternLM 个人小助手。开源链接:(欢迎 star)
2024-10-22 18:54:54
960
原创 课程升级、资源加码!万人共学的书生大模型实战营第4期正式起航
将新增书生大模型结合 Coze 和 Dify 的互动玩法, Multi-Agent 课程内容,以及在国产华为 Ascend NPU 上部署和微调 InternLM 和 InternVL 的宝贵实战经验,带领学员体验前沿技术的魅力!书生运营团队同时发起“书生·共学”计划,鼓励大家将实战营活动分享出去,让更多开发者获取有效可信的大模型学习资源,探索大模型开发的无限可能。技术导师提供项目开发支持,往期明星项目团队分享宝贵经验,搭配「人均大佬」「超级活跃」的通关社群,轻松组队,助你打造“出圈”的大模型项目。
2024-10-18 11:12:45
560
原创 基于华为昇腾910B,实战 InternLM2.5-7B-Chat 模型推理
LMDeploy 在 0.6.0 这个版本上开始支持华为昇腾NPU。不过官方的文档只包含了 docker 镜像推理的示例,对于非 docker 镜像如何部署安装没有提到,这样对平台的移植性就变差了。好在启智平台提供了华为的昇腾NPU 运行环境,不过这里我们需要注意:虽然启智平台提供了华为的昇腾 NPU 运行环境,但是 不是每个镜像都能很顺利地跑完,我花了些时间进行测试,结果发现大部分镜像是不能运行的。下面表格列出了我测试下来的情况,贴出来供大家参考:测试序号资源规格镜像智算中心。
2024-10-16 18:49:06
2971
原创 这款懂人情世故的大模型强得可怕!
您可以在 Tianji 目录下找到四种路线的对应源码,如果您想参考 Tianji 的项目架构、数据管理、技术路线复刻出属于自己的垂直领域 AI 应用,欢迎 fork 或者直接参考,我们将会开源所有包括从项目的起步、数据的方向探索、数据构建与管理、AI 应用 从 0 制作、领域(比如人情世故)与技术路线的深入结合 的全过程;天机项目经历了完整的从零到一的开发流程,从 2024 年年初开始,在几十位开发者的帮助下完善了知识的补充与清理,逐渐从一个空壳成长至羽翼丰满。,这 2 天在社区可谓有点火!
2024-10-14 19:00:25
1028
原创 在HF上部署你的专属MindSearch,随时随地开启智能搜索!
作者:MindSearch 兴趣小组成员张富才本文将详细带领大家学习如何在 Hugging Face Space专属自己的 MindSearch 应用,免去排队等待的烦恼,随时随地开启智能搜索!好,知道这些就可以动手了,让我们开始教程吧~
2024-10-12 13:53:31
946
原创 如何解决大模型长距离依赖问题?HiPPO 技术深度解析
在选择多项式空间的基础上,根据不同的概率测度,该论文着重分析了三个实例:translated Legendre (LegT),translated Laguerre (LagT),scaled Legendre (LegS)。文章根据在线函数近似的思路提出了 HiPPO 架构,解释了可以通过递推式反映历史的根本原因,主要理论核心是对若干概率测度的情形给出了 HiPPO 初始化实例,其中论证了取测度为。在论文中,指出了三个 HiPPO-LegS 的优势,并分析了近似造成的误差幅度,以下对此进行介绍。
2024-10-12 10:41:46
901
原创 如何在MindSearch中集成新的搜索API,全面提升智能搜索能力!
本文深入探讨了在 MindSearch 中实现新的 搜索 API 所需注意的关键事项,并详细介绍了 SearcherAgent 的调用流程,包括涉及的类和函数。特别地,我们重点介绍了如何在 bing_browser.py 中支持新的搜索 API,具体包括实现新的 Searcher 类,以及定义 def search()、def _call_serper_api()和def _parse_response()函数,以确保新的搜索 API 能够无缝集成并扩展现有功能。MindSearch 兴趣小组招募。
2024-09-12 19:03:44
1219
原创 和 InternLM 解锁“谁是卧底”新玩法
本文来自社区投稿,作者LangGPT联合发起人、东北大学在读博士生王明在大模型技术日益普及的今天,AI 的应用已经渗透到各个领域,带来了无数创新和乐趣。今天,我们将一起探索如何搭建一个 AI 版的“谁是卧底”游戏。通过和平台,你将学会如何配置环境、调用大模型接口,最后和展开一场关于“谁是卧底”的脑力对决。(欢迎使用 InternLM 系列开源大模型开发有趣有用的 AI 应用)
2024-09-09 13:53:03
1005
原创 RAG 进阶:零成本 chat_with_readthedocs
假设你已经熟悉 readthedocs 基本用法,可以直接拷贝 HuixiangDou docs 目录zh 或 en 目录皆可在 requirements/doc.txt 设置自定义主题是我们的自定义主题实现,主要是:在创建了一个 chatButton 和空白 container为 chatButton 绑定事件。
2024-09-03 19:57:59
764
原创 LLM自对齐技术最新研究分享(三)Multi-agent 对齐
至此 LLM 自对齐技术最新研究进展分享 系列文章到此就完结啦!Self-alignment 作为 AI 领域的一项前沿技术,其核心目标是通过减少人类干预,使大型语言模型(LLM)能够自我优化和调整,以更好地适应各种任务和指令。本系列文章综述了 Self-alignment 的两大实现途径:对齐 Pipline 数据合成和 Multi-agent 对齐。
2024-08-28 19:22:35
1327
原创 LLM自对齐技术最新研究分享(二):对齐 Pipeline 数据合成(下)
本文我们重点探讨了“如何让 LLM 采集 Response”,解决了如何拿到 Response 的问题。至此,对于“对齐 Pipeline 数据合成”路线的 Self-alignment,我们需要关注的两大问题已全部有了答案。在下一篇文章,我们将继续探讨 Self-alignment 的另一实现路线——Multi-agent 对齐,敬请期待哦!
2024-08-27 18:31:57
874
原创 LLM自对齐技术最新研究分享(一):对齐 Pipeline 数据合成(上)
本文我们重点探讨了“如何让 LLM 合成 Instructions”,解决了 Instructions 从哪里来的问题。下一篇文章,我们将重点探讨“如何让 LLM 采集 Response”,敬请期待哦!
2024-08-26 19:06:41
1282
原创 InternLM2.5-20B-Chat 正式上线 SiliconCloud 平台
SiliconCloud 是硅基流动推出的一站式大模型云服务平台。通过提供更快、更便宜、更全面的主流开源大模型 API 服务,SiliconCloud 希望能打造“大模型 Token 工厂”,帮助开发者真正实现“ Token 自由”。目前,平台已上架多种大语言模型、向量&重排序模型、包含图片/视频生成的多模态大模型,用户可自由切换适合不同应用场景的模型。在 2024 年 7 月 4 日的 WAIC 科学前沿主论坛上,上海人工智能实验室推出了书生·浦语系列模型的全新版本——InternLM2.5。
2024-08-22 20:00:07
853
原创 这个图像风格迁移神器,效果炸裂!
借助扩散模型的强大能力实现任意图的风格到任意的内容的迁移存在两大难点:生成的图片难以还原用户输入图像的风格细节生成的图片常常会有输入图像内容的泄露。为应对这些挑战,StyleShot 巧妙地设计了能够精确复原风格细节并减少内容泄露的框架。其框架如下图所示,用户输入的风格图像将通过专门设计的编码器提取风格特征,随后在 UNet 中进行Cross-Attention 运算以实现风格注入。
2024-08-20 19:17:26
2020
原创 安卓端侧大模型 MLC-LLM 部署全攻略:以 InternLM2.5-1.8B 为例
MLC-LLM 是一个机器学习编译器和高性能大型语言模型部署引擎。该项目的使命是让每个人都能在自己的平台上开发、优化和部署 AI 模型。InternLM 2.5 是上海人工智能实验室发布的新一代大规模语言模型,相比于之前的版本,InternLM 2.5支持百万长文,推理能力开源领先。本文将带大家手把手使用 MLC-LLM 将 InternLM2.5-1.8B-Chat部署到安卓手机上。
2024-08-13 19:18:26
3930
6
原创 Compass Arena 上新啦!新增双多模态模型匿名对战
2024 年 5 月,上海人工智能实验室司南 OpenCompass 团队 与魔搭 ModelScope 联合推出了大模型评测平台——Compass Arena(大模型竞技场),为国内的大语言模型领域引入了一种全新的竞技模式。今天,Compass Arena 迎来重磅更新,新增了多模态大模型竞技版块——Compass Multi-Modal Arena。在这个全新的竞技场,用户可以轻松体验和比较多款主流多模态大模型的效果,找到适合自己的。
2024-08-12 13:13:24
806
原创 RAG 进阶:一个 ctrl-c 就能拿走的图文检索框架
本文分享了 HuixiangDou 在实现图片混合检索过程中,在设计层面的考量,我们更鼓励用户拿走代码。在图文检索方面,目前只支持 markdown 文件,还需支持更多格式。
2024-08-09 11:29:46
904
原创 RAG进阶:混合稠密检索和知识图谱来提升精度
本文使用 qwen1.5-110B 做 NER,为降低成本使用 silicon clould API,使用的知识库仍然是 OpenMMLab 相关的 9 个算法库。与传统的关系型数据库不同,它用节点和边来表示数据实体和它们之间的关系,而不是使用表和列。它提供了丰富的数据结构和算法来创建、操作和研究复杂的网络结构,包括无向图、有向图、多图、无权图和加权图。本文假设这种高频词汇,在 RAG 中应该有更大权重。本文基于知识图谱和稠密检索的混合方案,本质是在稠密检索中给高频词加权,能带来不到 2 个点的精度提升。
2024-08-08 19:18:45
964
原创 面向多样应用需求,书生·浦语2.5开源超轻量、高性能多种参数版本
在 2024 年 7 月 4 日的 WAIC 科学前沿主论坛上,上海人工智能实验室推出了书生·浦语系列模型的全新版本——InternLM2.5。相较于上一代,InternLM2.5 全面增强了在复杂场景下的推理能力,支持 1M 超长上下文,能自主进行互联网搜索并从上百个网页中完成信息整合。此前,面向广泛应用场景的轻量级 InternLM2.5-7B 已开源。为适应更多样化应用场景及不同开发者需求,InternLM2.5 再次开源 1.8B、20B 参数版本。
2024-08-06 20:00:00
761
原创 7B 开源模型突破 IMO 形式化证明,霸榜数学竞赛
去年底,著名数学家、菲尔兹奖获得者陶哲轩就提出 AI 将加速数学研究,成为数学家的可靠伙伴,并且在形式化语言 Lean 的帮助下,成功证明了多项式 Freiman-Ruzsa 猜想。在今年的国际数学奥林匹克竞赛(IMO)上,谷歌Deepmind 推出的 AlphaProof 和 AlphaGeometry 2 和人类顶尖大脑同台竞技,以 28 分的惊人成绩获得银牌,和金牌仅有 1 分之差。AlphaProof 就是使用形式化语言 LEAN 进行命题的证明。
2024-08-02 18:19:54
1077
原创 还在排队 SearchGPT?快来试试 MindSearch!
7 月 25 日,OpenAI 发布了其 AI 搜索的原型系统 SearchGPT,在社区引起轰动。社区小伙伴们纷纷加入了排队试用的名单。SearchGPT 将 LLM 和搜索引擎结合,试图成为我们搜集信息、探索知识、解决问题的重要工具。然而,鉴于年初的 Sora 到目前都还没未真正实现大规模体验,也有网友对今年用上 SearchGPT 持悲观态度。既然 SearchGPT 可能遥遥无期,那我们有没有开源平替免费尝鲜呢?今天,有了!
2024-07-31 11:23:45
840
原创 第二期书生·浦语大模型实战营优秀项目一览
书生·浦语社区于 2023 年年底正式推出了书生·浦语大模型实战营系列活动,至今已有两期五批次同学参加大模型学习、实战,线上课程累计学习超过 10 万人次。实战营特设项目实践环节,提供 A100 算力支持,鼓励学员动手开发。第 2 期实战营共收到 500 多个项目申报,我们在众多的项目中为大家精选了 23 个优秀项目,现在就让我们一起欣赏下学员们的成果吧,看看他们是怎么将奇思妙想带入现实~
2024-06-25 19:16:00
704
原创 text2vec 如何选择 chunksize 和 splitter?
本文基于茴香豆真实数据,给出 text2vec 模型的 chunksize 的上下界,同时提供选择 splitter 和 text2vec 模型的依据。当然本次验证并不全面,仍需覆盖更多领域(如电力)和任务类型(如图文混合检索),我们将进一步探索。需要额外说明的是,为了让机器人“有问必答”、避免太高冷,豆哥源码关注的是 recall 而非 F1,实际阈值会偏低。参考文档。
2024-06-20 16:19:48
944
原创 LLM推理后端性能大比拼,来自BentoML团队的深度评估!
选择适宜的推理后端来服务大型语言模型 (LLMs) 至关重要。它不仅可以确保用户通过快速生成速度获得最佳体验,还可以通过 token 的高生成率和资源利用率降本增效。如今,开发者可以选择多种由知名研究和行业团队创建的推理后端。但是,为特定用例选择最佳后端可能具有挑战性。为了帮助开发者做出明智的决策,我们在 BentoCloud 上,分别使用 vLLM、、MLC-LLM、TensorRT-LLM 和 Hugging Face TGI 搭建了 Llama 3 推理服务,并对推理性能进行了全面的基准测试。
2024-06-14 15:38:39
1361
原创 从数据采集到部署,手把手带你训练一个高质量的图像分类模型
本文来自社区投稿,作者李剑锋MMPreTrain 是一款基于 PyTorch 的开源深度学习预训练工具箱,本文将从数据采集到部署,手把手带大家使用 MMPreTrain 算法库训练一个高质量的图像分类模型。
2024-06-11 17:42:30
1861
5
原创 LMDeploy Windows 平台最佳实践
Windows 是全球范围内最流行的操作系统之一,许多企业和个人用户都在使用 Windows 系统。通过在 Windows 系统上支持 LLM 的推理,许多办公软件、聊天应用等都可以受益于 LLM 的技术,为用户提供更智能、更个性化的服务。LMDeploy 支持在 Windows 平台进行部署与使用,本文会从以下几个部分,介绍如何使用 LMDeploy 部署 internlm2-chat-1_8b 模型。环境配置LMDeploy Chat CLI 工具。
2024-06-05 17:30:05
857
原创 丝滑小连招,部署 Vision Language 模型
LMDeploy 自 v0.4.2 开始,支持 VL 模型 4bit 量化及推理部署。包括:llavainternvlqwen-vlminigeminiyi-vlLMDeploy 项目链接(文末点击阅读原文可直达,觉得好有欢迎点亮小星星)以上模型,除了 InternLM-XComposer2 外均采用 Llama 模型结构作为语言模块,而视觉模块则各有不同。
2024-05-30 20:22:17
877
原创 InternLM2-Math-Plus全面升级,全尺寸最强的开源数学模型
上海人工智能实验室在推出领先的开源数学模型InternLM2-Math的三个月之后对其进行了升级,发布了全新的 InternLM2-Math-Plus。升级后的 InternLM2-Math-Plus 在预训练和微调数据方面进行了全面的优化,显著提高了其在自然语言推理、代码解题以及形式化数学语言上的性能。
2024-05-28 14:22:43
939
原创 LMDeploy高效部署Llama-3-8B,1.8倍vLLM推理效率
Llama 3 近期重磅发布,发布了 8B 和 70B 参数量的模型,LMDeploy 对 Llama 3 部署进行了光速支持,同时对 LMDeploy 推理 Llama 3 进行了测试,在公平比较的条件下推理效率是 vLLM 的 1.8 倍。书生·浦语和机智流社区同学光速投稿了 LMDeploy 高效量化部署 Llama 3,欢迎 Star。本文将分为以下几个部分来介绍,如何使用LMDeploy来部署 Llama3(以 InternStudio 的环境为例)环境、模型准备。
2024-04-26 17:26:59
2646
1
原创 【全网首发】Llama 3 微调项目实践与教程(XTuner 版)
Llama 3 近期重磅发布,发布了 8B 和 70B 参数量的模型,XTuner 团队对 Llama 3 微调进行了光速支持!!!同时开源社区中涌现了 Llama3-XTuner-CN 手把手教大家使用 XTuner 微调 Llama 3 模型。
2024-04-23 17:27:15
2197
1
原创 Agent-FLAN 技术报告——社区翻译版
Agent-FLAN 技术报告于近日正式对外发布,不少社区大佬自发地参与到报告的翻译与解读中来。本文为社区用户翻译的 Agent-FLAN 技术报告原文,分享给大家~论文地址:https://arxiv.org/abs/2403.12881Agent-FLAN的代码已开源至:(欢迎点亮小星星)https://github.com/InternLM/Agent-FLAN 如果你对 Agent-FLAN 的技术细节感到好奇,或者渴望与其他技术爱好者进行深入的交流和讨论,不要错过本周六晚上 8 点举行的圆会议
2024-04-19 14:57:30
709
原创 千亿参数,百万序列 | XTuner 超长上下文训练方案
尽管开源模型支持的序列长度不断被刷新,但主流的显存优化策略(如 ZeRO 系列)却不足以解决大模型、长序列训练问题。如图 1 所示,使用 ZeRO-3 显存优化策略训练超长序列时,单纯增加 GPU 数量无法解决超长序列带来的 OOM 问题;这是因为,ZeRO-3 只能优化模型参数和优化器状态占用的显存,超长训列训练过程中的显存开销主要来自激活值,而非模型参数和优化器状态。图1 不同序列长度时,使用 ZeRO-3 训练 128k 上下文 yi-34B 模型的训练情况。
2024-04-16 15:44:45
1069
1
原创 大模型初探者到登上领奖台,看优秀学员郭一凡如何在实战营走花路!
书生·浦语大模型实战营第二期正在如火如荼地进行中,今天,让我们一起走进首期实战营优秀学员郭一凡的故事,故事主题关乎“成长”。
2024-04-11 15:10:57
984
原创 InternLM2 技术报告——社区翻译版
大型语言模型(LLMs)如ChatGPT和GPT-4的发展引发了关于通用人工智能(AGI)来临的讨论。然而,将这样的进步应用到开源模型中一直颇具挑战。本文介绍InternLM2,一个开源的大语言模型,它在6个维度和30个基准的全面评估中超越了其前身,特别是在长序列建模和开放性主观评估方面,通过创新的预训练和优化技术实现了这一突破。InternLM2详细阐述了预训练过程中各类数据的准备,包括文本、代码和长文本数据。
2024-04-09 16:20:22
1514
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人