- 博客(1376)
- 收藏
- 关注
原创 【一千个论文合集】计算机科学的26个细分领域近年必读论文集合
AMiner必读论文是一个可以帮您了解某个领域、机构、期刊、会议的学术专辑,包括必读论文和代表学者,由AI初筛+学者复核后提供给您,您可以收藏为自己的论文清单
2022-05-11 15:17:34
22374
1
原创 NVIDIA发布OmniVinci:破模态难题,全模态AI落地
NVIDIA推出全模态大模型OmniVinci,通过创新架构解决多模态割裂问题。该模型采用OmniAlignNet实现跨模态语义对齐、TEG模块处理长时间序列信息、CRTE编码精准标记时间戳,在仅需0.2TB训练数据(传统模型需1.2TB)的情况下,DailyOmni基准测试提升19.05%。实验显示,其在视频理解、音频识别等任务中表现优异,推理速度提升1.7倍,已成功应用于医疗影像和工业检测领域。
2025-10-25 17:06:06
1136
原创 NeurIPS 华南理工用物理规律 “拆穿” Sora2,让AI视频真假现原形
Sora2生成的视频真假难辨?华南理工团队提出物理驱动鉴伪术:不找"穿帮"找"违章",通过时空一致性检测AI视频,在Sora等闭源模型上准确率超传统方法16%。
2025-10-20 14:16:53
805
原创 三步解密诺奖“科学盲盒”,从成果解读到诺奖得主学术朋友圈 1
今年诺贝尔奖三大科学奖项揭晓,AMiner平台推出三大功能助你深度理解诺奖价值:1)"拆盲盒"式解析,用技术发展脉络拆解生理学/医学、化学、物理学奖的核心突破;2)"画族谱"功能,通过论文引用网络展现获奖成果的学术传承;3)"装雷达"订阅服务,0.01元即可追踪诺奖得主最新研究动态。平台还提供近四年诺奖学者专题库,包含100+专题、3000+学者信息,帮助科研人员持续跟进前沿进展。
2025-10-14 15:25:15
556
原创 2025年诺贝尔化学奖揭晓!速查金属有机框架发展脉络及本次发现学术价值!
2025年诺贝尔化学奖授予北川进(日本)、Richard Robson(英国)和Omar M. Yaghi(约旦裔美国籍),表彰他们对金属有机框架(MOFs)发展的贡献。MOFs是由金属离子与有机配体通过配位键形成的多孔晶体材料,具有可调控的孔径和超高比表面积。获奖研究追溯至配位化学的早期探索,历经概念确立、永久多孔性突破等关键阶段。如今MOFs已应用于清洁能源储存、气体分离、催化、传感、水处理及药物递送等领域。
2025-10-09 13:44:41
1255
原创 2025年诺贝尔物理学奖揭晓!用AMiner高效调研诺奖发现和获奖者学术成就!
2025年诺贝尔物理学奖授予约翰·克拉克、米歇尔·德沃雷和约翰·马丁尼斯,表彰他们在宏观量子力学隧穿效应和电路能量量子化方面的突破性发现。他们的实验首次在宏观尺度证实了量子隧穿现象,挑战了量子效应仅存在于微观世界的传统认知。这些研究为超导量子计算、量子传感器等量子技术奠定了重要基础。AMiner平台提供了获奖学者的详细研究画像和近四年诺奖专题库,助力科研人员深入探索量子科技前沿领域。
2025-10-09 13:35:25
935
原创 突破Transformer困局!中科院打造新一代类脑脉冲大模型,提升百倍训练效率!
中科院自动化所与沐曦MetaX联合发布全球首款类脑脉冲大模型"瞬息1.0"(SpikingBrain),创新性地采用内生复杂性理论,在国产GPU平台上实现全流程训练和推理。该模型突破传统Transformer架构局限,通过混合线性架构、高效模型转换和自适应阈值脉冲三大创新,将计算能耗降低97.7%。在沐曦MetaX曦云C550集群上训练的参数模型性能与主流开源模型相当,长序列处理效率显著提升,实现69.15%的稀疏性。
2025-09-28 10:41:44
812
原创 “搜、读、写”一站搞定,AMiner全面升级,无时差陪伴科研全流程
AMiner推出新一代AI科研助手,整合智谱GLM-4.5模型与3亿级学术资源,实现科研全流程智能化。该平台提供双模检索、AI文献综述、多模态阅读解析等功能,7分钟可生成万字报告,支持文献对比和知识管理。其亮点包括自动生成学术简历、实时追踪前沿情报,覆盖"搜、读、写"全环节,助力科研效率提升。目前服务全球1000万用户,支持40+学科研究。
2025-09-22 11:27:12
1124
原创 打破近五年空白!复旦陈涛团队提出具身AI压缩新范式,斩获IJCAI杰出论文奖!
复旦大学团队在IJCAI 2025上发表的论文《Boost Embodied AI Models with Robust Compression Boundary》获得杰出论文奖,实现了中国团队在该奖项的突破。论文提出了一种增强压缩边界方法(BRCB),解决了具身AI在部署时效率与鲁棒性之间的矛盾。BRCB通过抗干扰机制和突破鲁棒性边界两大创新,使压缩后的模型在保持轻量化的同时,抗干扰能力甚至超越原始模型。实验表明,在自动驾驶和机器人应用中,BRCB在干扰场景下的表现优于现有方法,模型部署效率显著提升。
2025-09-15 10:10:31
966
原创 你的眼睛会撒谎,AI的“眼睛”也会!揭秘人类与机器的视错觉差异!
虽然当前的视觉语言模型越来越能够承担需要人类完成的任务,甚至与人类在某些“错误”上达成一致,但它们依然缺少一个强大的内部感知模型,也非常容易出现由语言驱动的偏差。人类与人工智能在视错觉方面的对比揭示出人与AI的本质差异,人类依赖经验和情景构建知觉,而AI则更注重数据和统计逻辑。如果我们能让AI理解视错觉背后的逻辑,解决AI特有的感知漏洞,减少无中生有的幻觉,才能让AI在更大程度上与人类建立更加互信的关系。毕竟,懂得彼此的“错误”,才是最深的理解。
2025-09-12 18:44:09
988
原创 诺贝尔奖但搞笑:当研究者给筷子通上电,吃货的未来亮了!
日本科学家凭借"能改变味道的通电筷子"获得2023年搞笑诺贝尔营养学奖。这项研究源自鲶鱼全身味蕾的启发,通过电流刺激味觉细胞,让普通食物产生"隐形调料"效果。实验显示通电筷子能使低盐食物的咸味提升1.5倍,已在减盐健康领域投入应用。该技术打破了人类味觉的生理局限,未来或将成为新型"健康调味料",让人们在享受美味的同时控制盐糖摄入。这项看似滑稽的研究,实则是科技重构健康饮食生态的重要突破。
2025-09-12 11:05:06
1214
原创 我国正在规划撞击一颗小行星,小行星动能撞击与防御技术经历了怎样的发展?
中国将启动小行星防御验证任务,采用"伴飞+撞击+伴飞"创新模式。这是继6600万年前Chicxulub撞击事件后,人类主动防御小行星威胁的重要尝试。AMiner调研显示,该领域已积累多项关键技术成果,包括动量传递效率研究、自主导航系统等。中国将推动国际合作,共享监测数据与研究成果,共同应对这一全球性挑战。
2025-09-09 15:18:10
805
原创 警惕!你和ChatGPT的对话,可能正在制造分布式妄想
分布式妄想并非仅存在于精神疾病的案例中,普通人也有可能陷入与AI共构的幻觉。比如,一个对社会怀有不满的人可能会在人工智能伴侣身上找到完美的知己;一个确信政治选举被盗的人可能会使用人工智能聊天机器人来制定关于欺诈如何发生、谁负责以及哪些行动可以做出回应的详细理论。这些并不是简单的AI幻觉可以解释的,而是人机之间的互动对现实的扭曲。作者警示我们,AI早已不是外部工具,而是认知生态的参与者。当我们依赖它记忆、思考和叙事时,必须意识到,我们与AI的边界正在模糊,而真实感,可能正由算法和人类共同书写。
2025-09-05 15:21:00
1676
2
原创 5分钟检索百篇文献完成万字报告|AMiner沉思免费开放
近日,AMiner团队基于智谱自研GLM-Z1-Rumination沉思模型,正式推出「AMiner沉思」DeepResearch功能。
2025-09-02 11:04:03
1582
原创 港科大Aivilization登场,打造“AI版星露谷物语”!解锁多智能体互动新玩法!
港科大Aivilization项目让AI模拟人类活动,玩家可定制智能体。华盛顿大学MAC环境研究多智能体社交学习,二者均推动AI社交智能发展。
2025-09-01 13:21:53
1391
原创 Kimi杨植麟署名新论文新注意力架构MoBA发布,代码公开
大模型(LLM)是一种人工智能模型,旨在理解和生成人类语言。它们在大量的文本数据上进行训练,可以执行广泛的任务,包括文本总结、翻译、情感分析等等。LLM的特点是规模庞大,包含数十亿的参数,帮助它们学习语言数据中的复杂模式。这些模型通常基于深度学习架构,如转化器,这有助于它们在各种NLP任务上取得令人印象深刻的表现。
2025-02-25 11:32:38
1084
原创 DeepSeek梁文锋挂名,公开新注意力架构NSA
大模型(LLM)是一种人工智能模型,旨在理解和生成人类语言。它们在大量的文本数据上进行训练,可以执行广泛的任务,包括文本总结、翻译、情感分析等等。LLM的特点是规模庞大,包含数十亿的参数,帮助它们学习语言数据中的复杂模式。这些模型通常基于深度学习架构,如转化器,这有助于它们在各种NLP任务上取得令人印象深刻的表现。
2025-02-25 11:25:54
1034
原创 上交大团队发布更精准的Less is More,删减84%数据反提升效果
大模型(LLM)是一种人工智能模型,旨在理解和生成人类语言。它们在大量的文本数据上进行训练,可以执行广泛的任务,包括文本总结、翻译、情感分析等等。LLM的特点是规模庞大,包含数十亿的参数,帮助它们学习语言数据中的复杂模式。这些模型通常基于深度学习架构,如转化器,这有助于它们在各种NLP任务上取得令人印象深刻的表现。
2025-02-25 11:12:45
1168
原创 Kimi k1.5技术报告,深度长思考
大模型(LLM)是一种人工智能模型,旨在理解和生成人类语言。它们在大量的文本数据上进行训练,可以执行广泛的任务,包括文本总结、翻译、情感分析等等。LLM的特点是规模庞大,包含数十亿的参数,帮助它们学习语言数据中的复杂模式。这些模型通常基于深度学习架构,如转化器,这有助于它们在各种NLP任务上取得令人印象深刻的表现。
2025-02-23 23:57:14
1227
原创 微软Phi-4技术报告,合成数据占比40%,14B小模型数学击败GPT-4o
大模型(LLM)是一种人工智能模型,旨在理解和生成人类语言。它们在大量的文本数据上进行训练,可以执行广泛的任务,包括文本总结、翻译、情感分析等等。LLM的特点是规模庞大,包含数十亿的参数,帮助它们学习语言数据中的复杂模式。这些模型通常基于深度学习架构,如转化器,这有助于它们在各种NLP任务上取得令人印象深刻的表现。
2025-02-23 23:53:31
802
原创 苹果视频生成大模型STIV,87亿参数一统T2V、TI2V任务
大模型(LLM)是一种人工智能模型,旨在理解和生成人类语言。它们在大量的文本数据上进行训练,可以执行广泛的任务,包括文本总结、翻译、情感分析等等。LLM的特点是规模庞大,包含数十亿的参数,帮助它们学习语言数据中的复杂模式。这些模型通常基于深度学习架构,如转化器,这有助于它们在各种NLP任务上取得令人印象深刻的表现。
2025-02-23 23:45:02
800
原创 DeepSeek-R1技术报告
大模型(LLM)是一种人工智能模型,旨在理解和生成人类语言。它们在大量的文本数据上进行训练,可以执行广泛的任务,包括文本总结、翻译、情感分析等等。LLM的特点是规模庞大,包含数十亿的参数,帮助它们学习语言数据中的复杂模式。这些模型通常基于深度学习架构,如转化器,这有助于它们在各种NLP任务上取得令人印象深刻的表现。
2025-02-16 14:48:45
1214
原创 上交大新作,817样本激发7倍推理性能
大模型(LLM)是一种人工智能模型,旨在理解和生成人类语言。它们在大量的文本数据上进行训练,可以执行广泛的任务,包括文本总结、翻译、情感分析等等。LLM的特点是规模庞大,包含数十亿的参数,帮助它们学习语言数据中的复杂模式。这些模型通常基于深度学习架构,如转化器,这有助于它们在各种NLP任务上取得令人印象深刻的表现。
2025-02-16 14:38:09
1239
原创 清华、港科大(广)和艾默里大学联合发布大模型推理技术综述
大模型(LLM)是一种人工智能模型,旨在理解和生成人类语言。它们在大量的文本数据上进行训练,可以执行广泛的任务,包括文本总结、翻译、情感分析等等。LLM的特点是规模庞大,包含数十亿的参数,帮助它们学习语言数据中的复杂模式。这些模型通常基于深度学习架构,如转化器,这有助于它们在各种NLP任务上取得令人印象深刻的表现。
2025-01-20 18:56:36
1187
原创 腾讯开源AI视频修复工具SVFR,一键将黑白视频变彩色、高清
大模型(LLM)是一种人工智能模型,旨在理解和生成人类语言。它们在大量的文本数据上进行训练,可以执行广泛的任务,包括文本总结、翻译、情感分析等等。LLM的特点是规模庞大,包含数十亿的参数,帮助它们学习语言数据中的复杂模式。这些模型通常基于深度学习架构,如转化器,这有助于它们在各种NLP任务上取得令人印象深刻的表现。
2025-01-20 16:44:54
1733
原创 MiniMax 01首次开源,400万上下文,性能比肩GPT-4o
大模型(LLM)是一种人工智能模型,旨在理解和生成人类语言。它们在大量的文本数据上进行训练,可以执行广泛的任务,包括文本总结、翻译、情感分析等等。LLM的特点是规模庞大,包含数十亿的参数,帮助它们学习语言数据中的复杂模式。这些模型通常基于深度学习架构,如转化器,这有助于它们在各种NLP任务上取得令人印象深刻的表现。
2025-01-17 17:51:35
1478
原创 阿里Qwen团队发布全新的过程奖励模型PRM,并且开源
大模型(LLM)是一种人工智能模型,旨在理解和生成人类语言。它们在大量的文本数据上进行训练,可以执行广泛的任务,包括文本总结、翻译、情感分析等等。LLM的特点是规模庞大,包含数十亿的参数,帮助它们学习语言数据中的复杂模式。这些模型通常基于深度学习架构,如转化器,这有助于它们在各种NLP任务上取得令人印象深刻的表现。
2025-01-16 21:08:15
844
原创 GAN已死?GAN永生!碾压扩散模型
大模型(LLM)是一种人工智能模型,旨在理解和生成人类语言。它们在大量的文本数据上进行训练,可以执行广泛的任务,包括文本总结、翻译、情感分析等等。LLM的特点是规模庞大,包含数十亿的参数,帮助它们学习语言数据中的复杂模式。这些模型通常基于深度学习架构,如转化器,这有助于它们在各种NLP任务上取得令人印象深刻的表现。
2025-01-15 21:06:54
739
原创 微软提出rStar-Math,自我进化深度思考,数学能力直逼o1
大模型(LLM)是一种人工智能模型,旨在理解和生成人类语言。它们在大量的文本数据上进行训练,可以执行广泛的任务,包括文本总结、翻译、情感分析等等。LLM的特点是规模庞大,包含数十亿的参数,帮助它们学习语言数据中的复杂模式。这些模型通常基于深度学习架构,如转化器,这有助于它们在各种NLP任务上取得令人印象深刻的表现。
2025-01-15 20:47:56
1203
原创 简单、高效!REINFORCE++,比PPO快,比GRPO稳
大模型(LLM)是一种人工智能模型,旨在理解和生成人类语言。它们在大量的文本数据上进行训练,可以执行广泛的任务,包括文本总结、翻译、情感分析等等。LLM的特点是规模庞大,包含数十亿的参数,帮助它们学习语言数据中的复杂模式。这些模型通常基于深度学习架构,如转化器,这有助于它们在各种NLP任务上取得令人印象深刻的表现。
2025-01-15 20:32:01
1288
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅