WAIC 2025首发:上海AI实验室开源「书生」科学多模态大模型Intern-S1,重构科研生产力范式

WAIC 2025首发:上海AI实验室开源「书生」科学多模态大模型Intern-S1,重构科研生产力范式

【免费下载链接】Intern-S1-FP8 【免费下载链接】Intern-S1-FP8 项目地址: https://ai.gitcode.com/InternLM/Intern-S1-FP8

7月26日,2025世界人工智能大会(WAIC 2025)在上海拉开帷幕。在当日下午的科学前沿全体会议上,上海人工智能实验室(简称"上海AI实验室")正式发布并开源了新一代科学多模态大模型——「书生」科学多模态大模型Intern-S1。在当前的科学研究中,单一模态的数据分析方法往往难以完整揭示复杂自然现象的本质规律,尤其在交叉学科研究领域,这种局限性更为突出。Intern-S1整合了书生大模型家族的技术优势,在同一模型架构内实现了语言理解与多模态处理能力的均衡发展,同时深度融合多学科专业知识体系,重点强化了科学研究场景所需的核心能力。作为全球首个融合专业科学能力的开源通用大模型,Intern-S1在综合性能上达到当前开源多模态大模型的最高水平。基于该模型构建的「书生」科学发现平台Intern-Discovery也已于近期正式上线,旨在推动研究者、科研工具与研究对象三者的能力协同提升与共同演进,引领科学研究从传统的团队单点探索模式迈向规模化科学发现的新阶段。用户可通过体验页面(https://chat.intern-ai.org.cn/)直接感受模型能力,模型代码已在Gitcode仓库(https://gitcode.com/InternLM/Intern-S1-FP8)开放。

当大语言模型在对话交互、创意生成、代码开发等通用场景中不断取得突破时,科研领域对于真正具备专业科学素养的AI工具的需求日益迫切。尽管现有主流AI模型在自然语言处理、图像识别等基础任务上表现出色,但在面对高精度、强专业性、复杂推理的科研场景时,仍存在显著能力短板。一方面,多数开源模型缺乏对复杂科学数据的深度解析能力,难以满足科研工作对结果精度、专业深度和逻辑推理的严苛要求;另一方面,性能领先的闭源模型普遍存在部署成本高、可控性不足等问题,导致科研工作者在实际应用中面临"用不起"、"用不放心"的困境。Intern-S1创新性地提出"跨模态科学解析引擎",能够精准处理化学分子式、蛋白质三维结构、地质波信号等多种复杂科学模态数据,并具备化合物合成路径预测、化学反应可行性判断、地质事件识别等前沿科研能力,实现了AI从"通用对话助手"到"专业科研搭档"的角色进化,为科研生产力的全面重构提供了技术支撑。凭借强大的科学解析能力,Intern-S1在化学、材料科学、地球物理学等多学科专业任务评测中表现超越顶尖闭源模型Grok-4,展现出卓越的科学推理与专业理解能力。在多模态综合能力方面,该模型同样优势显著,全面领先于InternVL3、Qwen2.5-VL等当前主流开源多模态模型,堪称开源模型中的"全能型科学专家"。

依托Intern-S1强大的跨模态生物信息感知与整合能力,上海AI实验室联合临港实验室、上海交通大学、复旦大学、麻省理工学院(MIT)等国内外顶尖研究机构共同打造了多智能体虚拟疾病学家系统——"元生"(OriGene)。该系统专注于药物靶标发现与临床转化价值评估,已在肝癌和结直肠癌治疗研究中分别识别出新的潜在治疗靶点GPR160和ARG2,相关发现均通过临床样本分析和动物实验验证,形成完整的科学研究闭环,展现了AI在加速新药研发进程中的巨大潜力。

系统性的技术创新体系为Intern-S1的能力突破奠定了坚实基础。自书生大模型首次发布以来,上海AI实验室已构建起涵盖大语言模型(书生·浦语InternLM)、多模态模型(书生·万象InternVL)、强推理模型(书生·思客InternThinker)等在内的完整书生大模型家族。基于"通用能力与专业能力深度融合"的技术路线,上海AI实验室研发团队通过持续的体系化技术创新,成功将Intern-S1打造为新一代科学智能模型的标杆产品。

针对传统通用大模型在处理科学数据时面临的数据异构性壁垒、专业语义理解困难等挑战,Intern-S1创新设计了科学多模态架构,实现多种科学模态数据的深度融合。模型新增动态Tokenizer和时序信号编码器,支持材料科学的晶体结构数据、生物制药领域的蛋白质序列信息、天文学的天体光变曲线、引力波信号、地质波形数据等多种科学模态的高效处理与深度整合。通过架构优化,Intern-S1实现了科学数据理解精度与处理效率的双重提升,例如在化学分子式处理任务中,其数据压缩率较DeepSeek-R1提升70%以上;在多项专业科学任务中,均实现了更低算力消耗下的更优性能表现。

科学研究领域的高价值任务往往具有高度专业化特点,不仅要求模型输出结果具备科学准确性,不同任务间的技能要求与思维模式也存在显著差异,直接混合训练易导致模型能力"此消彼长",难以实现专业能力的深度融合。为此,研发团队提出"通专融合"的科学数据合成方法:一方面利用海量通用科学文献数据拓展模型的知识广度,另一方面通过训练专业子模型生成高可读性、逻辑链清晰的领域数据,并引入领域定制的专业验证智能体进行数据质量控制。这种闭环数据生成机制持续优化基座模型,使其同时具备强大的通用推理能力和顶尖的专业任务处理能力,实现了"一个模型解决多学科专业任务"的科学智能突破。

强化学习技术已成为大模型能力提升的关键后训练手段,但其高昂的计算成本和系统稳定性问题制约着技术普及。Intern-S1研发团队通过训练系统与算法层面的协同创新,成功实现大型多模态MoE模型在FP8精度下的高效稳定强化学习训练,将强化学习训练成本较近期公开的同类MoE模型降低10倍。在系统层面,团队采用训推分离的强化学习方案,通过自研推理引擎实现FP8精度下的高效率大规模异步推理,并利用数据并行均衡策略缓解长思维链解码时的计算资源分配不均问题;在训练过程中采用分块式FP8训练技术,显著提升训练效率。该训练系统后续将对外开源,为大模型高效训练提供技术参考。在算法层面,基于Intern·BootCamp构建的大规模多任务交互环境,团队提出Mixture of Rewards混合奖励学习算法,融合多种奖励信号与反馈机制:在可直接验证的任务上采用RLVR(Reinforcement Learning from Validated Reasoning)训练范式,通过规则系统、专业验证器或交互环境提供精准奖励信号;在难以直接验证的任务(如科学对话、研究论文写作)上则采用奖励模型提供的综合评价信号进行联合训练。同时,训练算法集成了上海AI实验室在大模型强化学习领域的多项技术成果,实现训练效率与稳定性的双重提升。

坚持开源开放理念,降低AI技术应用门槛,是书生大模型家族一贯的发展策略。自2023年首次开源以来,上海AI实验室已陆续发布多个版本的书生大模型,并持续完善开源工具体系,不断降低大模型研发与应用的技术门槛。书生大模型首创并开源了覆盖数据处理、预训练、微调、部署、评测、应用全链路的开源工具集,包括低成本微调框架XTuner、高效部署推理框架LMDeploy、全面评测体系OpenCompass、智能文档解析工具MinerU,以及思索式AI搜索应用MindSearch等核心工具,形成了数十万开发者参与的活跃开源社区。近期,上海AI实验室进一步开源了多智能体框架Intern·Agent,该框架已支持化学分子设计、物理实验模拟、生物数据分析等12类典型科研任务,在大幅提升科研工作效率的同时,初步展现出多智能体系统自主学习、持续进化的能力,为AI自主完成复杂算法设计、前沿科学发现等高端科研任务开辟了新路径。未来,上海AI实验室将在持续创新研究范式、提升模型能力的基础上,推进Intern-S1及全链条工具体系的全面开源,提供免费商用授权,并搭建线上开放服务平台,与学术界、产业界共同构建繁荣的开源生态,打造真正懂科学、用得起、用得放心的AI科研助手。

Intern-S1不仅在专业科研场景表现卓越,在日常生活中的科学知识应用方面同样展现出深厚功底。面对包含科学元素的复杂验证场景,模型能够准确识别特定科学概念;在艺术欣赏领域,模型不仅能理解艺术作品的感性表达,还能从科学视角对作品涉及的物理原理、材料特性等进行理性分析,实现科学思维与艺术感知的有机融合。

【免费下载链接】Intern-S1-FP8 【免费下载链接】Intern-S1-FP8 项目地址: https://ai.gitcode.com/InternLM/Intern-S1-FP8

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值