
书生大模型
文章平均质量分 87
书生大模型相关内容分享
InternLM
这个作者很懒,什么都没留下…
展开
-
大模型首次打破围棋思维“黑盒”,打通科学发现新路径,书生·思客InternThinker升级发布|通专融合探索新进展
上海人工智能实验室(上海AI Lab)致力于以“”路径实现通用人工智能(AGI),为推动科学发现等重要任务带来下一代先进基础大模型。近日,基于一系列“通专融合”底层技术新进展,书生·思客(InternThinker)获得专业推理能力大幅提升,成为首个既具备围棋专业水平,又能展示透明思维链的大模型。在实验室科研人员的布局和着子中,蕴含数千年智慧的围棋成为了科学探索的“试应手”。原创 2025-05-23 15:01:30 · 725 阅读 · 0 评论 -
基于多智能体的图像信息定位系统 MultiAgent-Search | 与书生共创
目前图寻地址主要依赖计算机视觉(CV)方法,通过与大量卫星图像比对来确定位置。尽管这些方法效果显,但随着大模型的应运而生,依据人对于图像地理知识及相关特征的推理未免不是一个好的解决方案。因此,我开发了一种基于多智能体的图像识别与位置推理系统。旨在通过视觉、知识与决策等多智能体协同工作,能够有效分析城市地标的多维信息,通过逐步推理的方式得到准确的地理位置。项目展示。原创 2025-03-21 15:13:07 · 950 阅读 · 0 评论 -
手把手带你基于Zotero,使用InternLM API打造英文文献翻译助手
本文来自社区投稿,作者艾天龙在日常工作和学习中,你是否常常因为无法很好地理解英文文献而感到困扰?又是否对 Google 翻译生硬的结果感到不满?本教程将介绍如何利用书生・浦语(InternLM)大模型,结合 Zotero 文献管理软件以及 Zotero Translate 翻译插件,实现快速、免费且无需复杂网络环境配置的 AI 翻译功能,助力您轻松读懂英文文献,享受流畅的 AI 翻译体验。原创 2025-03-21 14:04:49 · 982 阅读 · 0 评论 -
基于EDG4LLM,使用InternLM3 API 高效生成微调数据丨玩转书生大模型
1月15日,上海人工智能实验室对书生大模型进行重要版本升级,书生·浦语3.0通过精炼数据框架,大幅提升了数据效率,并实现思维密度的跃升。仅使用4T训练数据的InternLM3-8B-Instruct,其综合性能超过了同量级开源模型,节约训练成本75%以上;同时,书生·浦语3.0首次在通用模型中实现了常规对话与深度思考能力融合,可应对更多真实使用场景。EDG4LLM是一款专为利用大语言模型生成微调数据而设计的Python 库,旨在帮助用户高效创建高质量的微调数据集。目前,该工具主要支持文本数据生成问题数据。原创 2025-03-05 14:42:10 · 747 阅读 · 0 评论 -
新一代书生·浦语大模型(InternLM3)沐曦训推实践
LMDeploy涵盖了LLM任务的全套轻量化、部署和服务解决方案。DeepLink团队开发的dlinfer提供了一套将新兴硬件接入大模型推理框架的解决方案。对上承接大模型推理框架,对下在eager模式下调用各厂商的融合算子,在graph模式下调用厂商的图引擎。dlinfer 根据主流大模型推理框架与主流硬件厂商的融合算子粒度,定义了大模型推理的融合算子接口。目前,dlinfer正在全力支持LMDeploy适配包括沐曦在内的多款新兴芯片品牌。原创 2025-02-27 14:46:29 · 821 阅读 · 0 评论 -
新一代书生·浦语大模型(InternLM3)昇腾训推实践
其中,“generated_text”中的内容就是模型的输出文本。在与InterLM3的适配过程中, MindIE基于框架引擎能力,提供深度定制优化模块,并内置模型,使能模型迁移适配过程快速复用亲和昇腾的推理加速能力,实现InternLM3-8B-Instruct 模型在昇腾生态社区同步发布。是基于昇腾生态的大语言模型套件,旨在为昇腾生态合作伙伴提供端到端的大语言模型训练方案,包含分布式预训练、分布式指令微调、分布式偏好对齐以及对应的开发工具链,如:数据预处理、权重转换、在线推理、基线评估。原创 2025-01-23 14:41:22 · 1400 阅读 · 0 评论 -
书生·浦语大模型升级,突破思维密度,4T数据训出高性能模型
为此,团队提出大规模数据精炼框架,大幅提高了训练数据的质量。基于通专融合的技术路线,研究团队探索了不同类型数据的融合训练方案,使得书生·浦语3.0 同时具备常规对话和深度思考能力,通过系统提示词(system prompt)的控制,可以让单一模型在两种模式间的一键切换,让通用模型具备深度思考能力。高价值数据的合成:基于通专融合的方式,以通用模型快速迭代合成算法,再精选数据训练专用模型,通过在海量天然数据中进行素材挖掘,改进的树状搜索策略,以及多维度质量验证,合成大量内容丰富,质量可靠的高价值数据。原创 2025-01-15 19:18:05 · 1010 阅读 · 0 评论 -
凭实力上榜!书生大模型开源社区荣获“2024年开源创新榜单”年度开源社区奖
此外,在主办方的特别邀请下,上海人工智能实验室青年科学家陈恺详细介绍了书生通用大模型体系,包括大语言模型书生·浦语(InternLM)、多模态大模型书生·万象(InternVL)、强推理模型书生InternThinker,以及面向大模型研发与应用的全链条开源体系(覆盖大模型数据、预训练、微调、部署、评测及应用)。经过层层筛选和专家评审,上海人工智能实验室书生大模型开源社区凭借其卓越的技术创新、社区建设以及开源贡献,从众多社区中脱颖而出,荣获“年度开源社区”奖。原创 2024-12-30 19:05:28 · 389 阅读 · 0 评论 -
推理实力再进阶!书生InternThinker迎来升级,免费API开放在即
自 InternThinker-alpha 版本发布以来,研发团队采用了强化学习的方法,让模型尝试完成大量复杂的推理难题,并在各种任务的沙盒环境进行交互,通过精细化地筛选高质量数据,使得模型在此过程中习得了更多元动作策略,实现了性能的显著提升,在数学等任务上和 o1-mini-20240912 持平。2024 年 12 月 18 日,InternThinker 从 alpha 版本升级到 beta 版本,在数学、理科,推理谜题等复杂推理任务上取得了优异的结果,并将在近期开放免费 API 供开发者使用。原创 2024-12-30 18:45:47 · 383 阅读 · 0 评论 -
InternLM2.5-20B-Chat 上线 SiliconCloud 平台
SiliconCloud 是硅基流动推出的一站式大模型云服务平台。通过提供更快、更便宜、更全面的主流开源大模型 API 服务,SiliconCloud 希望能打造“大模型 Token 工厂”,帮助开发者真正实现“ Token 自由”。目前,平台已上架多种大语言模型、向量&重排序模型、包含图片/视频生成的多模态大模型,用户可自由切换适合不同应用场景的模型。相比之前上线的 InternLM2.5-7B-Chat,InternLM2.5-20B-Chat 的综合性能更为强大,能够轻松应对更加复杂的应用场景。原创 2024-12-30 18:42:30 · 567 阅读 · 0 评论 -
AI 玩家已上线!和 InternLM 解锁“谁是卧底”新玩法
本文来自社区投稿,作者LangGPT联合发起人、东北大学在读博士生王明在大模型技术日益普及的今天,AI 的应用已经渗透到各个领域,带来了无数创新和乐趣。今天,我们将一起探索如何搭建一个 AI 版的“谁是卧底”游戏。通过和平台,你将学会如何配置环境、调用大模型接口,最后和展开一场关于“谁是卧底”的脑力对决。(欢迎使用 InternLM 系列开源大模型开发有趣有用的 AI 应用)原创 2024-12-25 18:54:41 · 1000 阅读 · 0 评论 -
在HF上部署你的专属MindSearch,随时随地开启智能搜索!
作者:MindSearch 兴趣小组成员张富才本文将详细带领大家学习如何在 Hugging Face Space专属自己的 MindSearch 应用,免去排队等待的烦恼,随时随地开启智能搜索!好,知道这些就可以动手了,让我们开始教程吧~原创 2024-12-04 14:10:20 · 1208 阅读 · 0 评论 -
基于华为昇腾910B,实战 InternLM2.5-7B-Chat 模型推理
LMDeploy 在 0.6.0 这个版本上开始支持华为昇腾NPU。不过官方的文档只包含了 docker 镜像推理的示例,对于非 docker 镜像如何部署安装没有提到,这样对平台的移植性就变差了。好在启智平台提供了华为的昇腾NPU 运行环境,不过这里我们需要注意:虽然启智平台提供了华为的昇腾 NPU 运行环境,但是 不是每个镜像都能很顺利地跑完,我花了些时间进行测试,结果发现大部分镜像是不能运行的。测试序号资源规格镜像智算中心python版本测试情况1。原创 2024-12-03 14:07:59 · 2097 阅读 · 0 评论 -
InternLM2.5系列模型正式上线 OpenCSG
InternLM2.5 系列模型现已在 OpenCSG 社区以专区形式正式上线,大家可以灵活选择算力,快速启动推理服务,或利用平台提供的丰富数据集进行模型微调。InternLM 开源链接:(欢迎 star)https://github.com/InternLM/InternLM专区链接:https://opencsg.com/collections/43/OpenCSG 社区还特别提供了 InternLM2.5-20B-Chat 的在线推理体验,用户可以通过一键操作直接体验该模型的对话功能~在线原创 2024-11-29 16:07:08 · 307 阅读 · 0 评论 -
基于华为昇腾910B,实战InternLM个人小助手认知微调
本文将带领大家基于华为云 ModelArts,使用 XTuner 单卡微调一个 InternLM 个人小助手。开源链接:(欢迎 star)原创 2024-11-28 18:09:55 · 1704 阅读 · 0 评论 -
玩转书生·浦语API(一):LlamaIndex搭建RAG知识库实践
本文作者:祝岚、北辰、陈国旗本文为书生大模型实战营《InternLM+LlamaIndex RAG 实践》课程配套内容,结合视频课程学习效果更好哦~浦语+LlamaIndex 外挂知识库 RAG 实践本文将分为以下几个部分来介绍前置知识环境、模型准备是否使用 LlamaIndex 前后对比。原创 2024-11-28 16:47:15 · 887 阅读 · 0 评论 -
强推理模型书生InternThinker开放体验:自主生成高智力密度数据、具备元动作思考能力|通专融合探索新进展
上海人工智能实验室(上海AI实验室)致力于通过“”路径探索开放、可控、可信的通用人工智能(AGI),其关键技术之一在于同步提升深度推理与专业泛化能力。2024年11月25日,上海AI实验室展示了自主生成高智力密度数据、具备元动作思考能力的“模型”等一系列创新进展,并开放强推理模型书生InternThinker试用体验。该模型具备长思维能力,并能在推理过程中进行自我反思和纠正,从而在数学、代码、推理谜题等多种复杂推理任务上取得更优结果。(登录后点击左侧InternThinker即可体验)。原创 2024-11-27 16:33:29 · 1726 阅读 · 0 评论 -
使用 ollama 快速部署 InternLM2.5!
是一个用于部署和管理 LLMs 的工具,它可以帮助用户轻松地将复杂的模型部署到生产环境中。本文将介绍在 Linux 系统下如何使用 ollama 快速部署。原创 2024-11-26 17:09:56 · 2210 阅读 · 0 评论 -
7B 开源模型突破 IMO 形式化证明,霸榜数学竞赛
去年底,著名数学家、菲尔兹奖获得者陶哲轩就提出 AI 将加速数学研究,成为数学家的可靠伙伴,并且在形式化语言 Lean 的帮助下,成功证明了多项式 Freiman-Ruzsa 猜想。在今年的国际数学奥林匹克竞赛(IMO)上,谷歌Deepmind 推出的 AlphaProof 和 AlphaGeometry 2 和人类顶尖大脑同台竞技,以 28 分的惊人成绩获得银牌,和金牌仅有 1 分之差。AlphaProof 就是使用形式化语言 LEAN 进行命题的证明。原创 2024-11-15 15:14:38 · 896 阅读 · 0 评论