论文
文章平均质量分 85
大模型星球
SCI/论文带读/本硕博毕业论文/中文核心期刊/EI会议/期刊/顶会发刊论文指导
文章相关资源可关注V.X【服务号】:AI技术星球 发送:211C 自取
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
NeurIPS满分论文来了!
摘要:清华大学与上海交通大学联合团队在NeurIPS2025发表满分论文,颠覆性指出基座模型本身而非强化学习(RLVR)决定大模型推理上限。研究通过pass@k指标对比实验发现,RLVR仅优化底模已有能力而非扩展新能力,且蒸馏方法更具进化潜力。该结论对当前主流RLVR技术路径提出挑战,引发对相关领域投入方向的重新思考。论文采用多基准测试验证,团队包含清华LeapLab多名优秀研究者。作者强调该发现并非否定RL价值,但确证了底模潜力被低估的事实。原创 2025-11-25 18:56:42 · 449 阅读 · 0 评论 -
对人工智能毫无了解,看不懂Transformer和BERT论文?别慌!导师亲授破局思路
摘要:针对初学者阅读Transformer和BERT论文的困难,文章建议采取分阶段学习策略:1)先暂停硬啃论文,补充深度学习、NLP和注意力机制等基础知识;2)通过"小白版解读"了解论文整体框架;3)拆分阅读论文,重点看摘要、引言和模型结构图;4)主动提问和讨论。强调建立知识基础比直接阅读更重要,推荐采用"先补基础再拆读,不懂就问"的方法逐步理解核心论文。原创 2025-11-19 16:09:38 · 308 阅读 · 0 评论 -
LSTM之父向何恺明开炮:我学生才是残差学习奠基人
残差学习创始权之争再起:LSTM之父为合作伙伴发声 摘要:LSTM之父Jürgen Schmidhuber近日发声,质疑何恺明团队对残差学习的首创权。他指出,其合作伙伴Sepp Hochreiter早在1991年就提出循环残差连接解决梯度消失问题,这一思想最终演变为LSTM的核心机制和后来的ResNet。事实上,这已是Jürgen多次挑战深度学习领域重要成果的原创归属,此前他曾对图灵奖结果、GAN和Transformer等提出类似质疑。尽管这些争议尚未得到广泛认可,但确实展现了深度学习技术发展的传承性。这场原创 2025-11-19 15:14:09 · 575 阅读 · 0 评论 -
又登1区!多模态深度学习发文大道果真宽又阔啊!
多模态深度学习是目前AI领域的热点研究方向,尤其在医疗诊断、情感分析等应用场景表现出色。该领域学术热度高,创新空间大,开源资源丰富,具备"入门有路径、创新有空间、成果易落地"的特点。核心优势在于跨模态融合的天然创新属性和产业需求驱动,但也面临跨学科门槛、数据算力成本等挑战。高效出成果的关键在于选对细分赛道(如医疗影像融合),聚焦单一环节创新(如优化跨模态注意力机制),并借助现有框架快速验证。该领域成果兼具理论价值与应用潜力,是当前高性价比的论文产出方向。原创 2025-11-04 17:57:09 · 892 阅读 · 0 评论 -
一区收割机,SAM+医学图像分割为啥刷爆顶会顶刊?新突破!
SAM在医学图像分割领域展现出巨大潜力,其泛化能力和交互式特性可有效解决医学标注成本高的痛点。该方向需求刚性、创新空间大,近期在CVPR、IEEE TMI等顶会顶刊涌现大量研究成果,涉及提示优化、模块增强、弱监督等创新路径。公开数据集丰富、评估指标明确,且开源资源充足(如MedSAM、SAM-Med2D),研究门槛相对可控。通过适配医学图像特性(多模态、噪声等)的"微创新"即可产出高水平论文,是当前学术热点。本文汇总前沿论文及代码资源,助力研究者快速切入这一高潜力领域。原创 2025-10-22 18:11:46 · 812 阅读 · 0 评论 -
DeepSeek R1论文经过同行评议登上Nature封面,梁文锋作为通讯作者再次创造历史
《DeepSeek-R1》论文登上《Nature》封面,成为首个通过同行评审的具有全球影响力的大语言模型(LLM)。该模型采用强化学习方法提升推理能力,训练成本仅29.4万美元(基础模型600万美元),远低于业界预期。R1在HuggingFace平台下载量达1090万次,其创新技术"纯粹强化学习"和"组相对策略优化"推动了AI领域发展。研究团队回应了关于可能使用OpenAI模型输出的质疑,强调其独立性。专家评价R1在性能与成本平衡方面表现突出,并认为其方法论将引发广泛原创 2025-09-18 14:07:44 · 548 阅读 · 0 评论 -
2025最新大型推理模型(LRM)强化学习(RL)综述(114页)
这是一篇关于 “大型推理模型(LRM)强化学习(RL)” 的综述,简单说就是告诉大家:怎么用强化学习让大语言模型(比如 ChatGPT、文心一言这类)变得更会 “思考”,能解决数学、编程、医疗这些复杂问题,还梳理了现在的技术、难题和未来方向。原创 2025-09-15 16:14:57 · 1352 阅读 · 0 评论 -
共享即关怀:通过集体强化学习经验共享实现高效语言模型后训练
Gensyn团队提出SAPO算法,通过去中心化协作实现语言模型高效后训练。该技术突破传统RL训练的三大困境:1) 构建异构计算节点组成的swarm网络,每个节点独立训练;2) 创新性采用"经验共享"而非参数同步机制,降低通信成本;3) 在数学推理等任务验证中,4本地+4外部经验配比使模型性能提升94%。实验表明,该方案可使消费级硬件以1/20成本达到接近GPU集群的效果,为AI民主化提供关键技术支撑。未来将拓展至多模态领域,推动全球协作的"集体智慧创造"范式。原创 2025-09-15 15:18:54 · 957 阅读 · 0 评论 -
贝叶斯优化+CNN+LSTM结合创新好发论文吗
摘要:贝叶斯优化(BO)与CNN-LSTM的结合在时空数据建模和复杂系统预测中展现出显著优势。CNN-LSTM通过融合空间特征(CNN)和时间依赖(LSTM)提升预测精度(如光伏功率预测R²达0.9809),而BO通过高效超参数调优(如高斯过程代理模型)减少22%-28%的误差。创新点包括混合架构设计(如加入注意力机制)、小样本/多模态应用及不确定性量化。发表策略建议:针对工程类期刊突出实际部署效果,方法类期刊侧重BO算法改进,并辅以开源代码和消融实验验证。计算资源瓶颈可通过稀疏高斯过程或渐进式优化解决,模原创 2025-09-12 16:43:29 · 902 阅读 · 0 评论 -
其实,扩散语言模型在最终解码之前很久,就已确定最终答案
扩散语言模型(DLM)的推理加速新方法Prophet通过利用早期答案收敛现象实现高效解码。研究发现,在随机重掩码场景下,多数样本在解码早期即可获得正确结果。Prophet策略通过持续监测top-2候选答案的置信度差距,自适应决定是否提前终止解码。实验表明,该方法在保持生成质量的同时,最高可实现3.4倍加速,部分任务表现甚至优于完整解码。这一无需训练的方法为DLM的实际应用提供了高效解决方案。原创 2025-09-03 16:15:50 · 583 阅读 · 0 评论 -
语音分离最全综述来了!清华等团队深度分析200+文章,系统解析「鸡尾酒会问题」研究
语音分离技术综述:深度学习在解决"鸡尾酒会问题"方面取得重大突破。清华大学等研究机构对200余篇论文进行系统分析,从问题定义、学习范式、模型架构等维度展开讨论。研究比较了监督与非监督学习方法,梳理了RNN、CNN、Transformer等主流模型架构,并总结了评估指标和数据集。实验显示,近年先进模型在WSJ0-2mix数据集上SDR提升至20dB左右。文章还分析了当前面临的挑战,如长音频处理、实时性要求等,并探讨了生成式方法、预训练技术等未来发展方向。原创 2025-09-03 15:57:51 · 515 阅读 · 0 评论 -
YOLO结合卡尔曼滤波好发论文吗
YOLO结合卡尔曼滤波的研究现状与创新方向 当前YOLO与卡尔曼滤波的融合研究在基础框架上已趋成熟,但细分场景(如农业、医疗)仍存在创新空间。顶会要求方法论突破(如OC-SORT提升遮挡场景MOTA 8%),顶刊则侧重工程落地(如交通测速误差<2%)。常见拒稿原因包括创新性不足和实验设计薄弱。高潜力方向包括:1)非线性状态建模(UKF提升精度2.3%);2)场景差异化(农业计数精度80%);3)轻量化(边缘设备速度提升3倍);4)技术交叉(联邦学习降低误报率89%)。发表策略需匹配目标期刊,实验设计应原创 2025-09-02 16:46:32 · 1277 阅读 · 0 评论 -
【PINN+LSTM】在中科院一区 / 二区或NeurIPS/ICML 等顶会上的发表概率极高
PINN与LSTM结合研究具有显著创新潜力。PINN通过物理约束增强模型泛化能力,LSTM擅长时序建模,二者优势互补。该方向在小样本学习、多物理场耦合等场景表现优异,已在能源、环境、生物医学等领域取得突破。研究热点包括元学习优化、注意力机制增强等,相关成果发表于Nature Communications等顶刊及NeurIPS等顶会。建议聚焦痛点问题,突出跨学科创新,通过严谨实验设计验证模型有效性。该方向发表潜力大,建议关注2025年顶级会议征稿动态。原创 2025-08-26 16:32:30 · 1190 阅读 · 0 评论 -
为什么你的论文总会被导师“打回重写”或被期刊高冷“拒稿”
论文写作常遇五大难题:选题模糊、创新不足、实验失败、写作混乱、投稿踩坑,导致反复修改或被拒。咕泡AI论文提供全流程辅导服务,配备700+顶尖高校专家团队,采用5V1陪伴式服务,从选题到录用全程把关。拒绝代写,注重能力培养,已有8万+成功案例。辅导周期因人和目标期刊而异,通常3-6个月完成。坚持学术规范,提供免费学术资源包辅助科研。原创 2025-08-22 11:42:02 · 694 阅读 · 0 评论 -
3D点云结合什么模型好发论文?GNN、扩散模型、transformer、多模态
本文分析了5种"3D点云+X模型"的创新研究方向:1)点云+图神经网络,重点在动态图构建和多尺度聚合;2)点云+Transformer,关注轻量化注意力与多模态融合;3)点云+扩散模型,探索几何约束生成和文本引导;4)点云+强化学习,应用于机器人操作决策;5)点云+大语言模型,实现语义推理与交互。其中点云+扩散模型、多模态Transformer和轻量化GNN最具研究价值,能有效解决点云处理中的生成质量、语义理解和计算效率等关键问题。建议研究紧密结合具体应用场景,突出模型创新与实际问题解决原创 2025-08-20 17:09:14 · 875 阅读 · 0 评论 -
GNN结合RL强化学习融合创新发论文的优缺点及可实现什么
图神经网络(GNN)与强化学习(RL)的融合是机器学习领域的研究热点,具有显著优势和创新潜力。GNN擅长处理图结构数据,能提升RL在社交网络、交通控制等复杂场景中的状态表示能力;而RL的动态决策优势可扩展GNN在分子优化、推荐系统等领域的应用边界。然而,该方向仍面临模型复杂度高、训练难度大、理论基础薄弱等挑战。两者的结合特别适用于动态图结构场景的智能决策,如交通流量调控、多机器人协作等任务,以及分子设计、知识图谱推理等结构化对象优化问题。原创 2025-08-18 17:40:58 · 1259 阅读 · 0 评论 -
多模态融合结合哪些模型容易出论文:大语言模型、扩散模型、Transformer 变体、自监督学习
多模态融合创新研究热点聚焦五大方向:1)大语言模型与视觉/音频的深度交互机制设计,解决细粒度跨模态推理问题;2)扩散模型在跨模态条件生成中的创新应用,探索多模态双向生成技术;3)Transformer变体在跨模态注意力机制上的优化,开发分层稀疏注意力方法;4)自监督学习在多模态预训练中的拓展,构建跨模态掩码预测新范式;5)面向医疗、机器人、自动驾驶等场景的领域适配融合方案。研究趋势呈现"热门模型+新兴模态+场景落地"特征,核心挑战在于模态差异、对齐效率和语义一致性。创新点需突出模型特性与原创 2025-08-16 16:20:05 · 858 阅读 · 0 评论 -
论文创新:扩散模型+CNN结合可实现什么
扩散模型与卷积神经网络(CNN)的融合展现出强大的协同效应。扩散模型擅长高质量样本生成,而CNN在局部特征提取和计算效率上优势明显,两者的结合在图像生成与修复、超分辨率重建等领域表现突出。CNN可精准捕捉图像细节和空间结构,为扩散模型提供关键约束,显著提升高分辨率生成的细节质量、修复任务的局部一致性和超分重建的真实性。这种组合在医学影像、视频生成等专业领域也展现出独特价值,成为当前AI研究的热点方向。原创 2025-08-15 18:00:40 · 656 阅读 · 0 评论 -
Transformer结合七大模型方向容易出论文
Transformer模型与其他架构的融合成为当前研究热点,展现多维度创新:1)与CNN混合架构(如CMT、CoAtNet)实现局部-全局特征互补;2)结合小波变换(如WaveFormer)增强频率域建模能力;3)多模态协同(如Show-o)突破跨模态生成边界;4)自监督学习(如DINO)降低数据依赖;5)动态网络(如DyGFormer)提升计算效率;6)与生成模型(如StableDiffusion)联动创造内容生成新范式;7)垂直领域应用(如SwinUNETR)解决医学/遥感等实际问题。研究趋势强调问题导原创 2025-08-13 17:57:01 · 1021 阅读 · 0 评论 -
YOLO结合六大模型方向容易出论文:Transformer 、超分辨率、多模态模型、轻量化
本文探讨了YOLO目标检测算法的优化方向,提出六种创新结合方案:1)引入Transformer增强特征建模;2)结合超分辨率提升小目标检测;3)融合分割模型拓展多任务能力;4)利用自监督学习减少数据依赖;5)采用轻量化技术适配边缘设备;6)结合多模态实现指令驱动检测。文章强调应聚焦特定场景痛点,注重融合策略创新,而非简单模型堆叠。其中Transformer、多模态和轻量化方向最具研究价值,既能提升算法性能,又具有实际应用潜力。原创 2025-08-13 17:51:32 · 1379 阅读 · 0 评论 -
六大AI模型组合方向结合好出论文:小波变换、多模态大模型、计算机视觉、transformer、CNN、LLM
本文总结了人工智能领域六大创新模型组合方向及其研究价值:1. Transformer+CNN实现全局-局部特征互补;2. 多模态+生成模型构建跨模态生成范式;3. 自监督+多模态提升小样本学习能力;4. 小波变换+Transformer增强频率域建模;5. 动态网络+轻量化模型优化计算效率;6. LLM+计算机视觉实现多模态智能交互。研究显示,这些组合通过创新架构设计(如交互自注意力、动态路由等)在多个领域达到SOTA性能,其中多模态生成、混合架构和自监督协同成为当前顶会论文的三大热点方向。原创 2025-08-12 16:51:11 · 1479 阅读 · 0 评论 -
唐博士1v1Meeting学习规划(AI论文、项目、竞赛、转行)
【1V1个性化AI学习规划指导】提供专业1对1定制服务,涵盖Python、机器学习、CV/NLP、大模型等AI全领域。根据学员基础、专业背景和学习需求,量身打造学习计划,包含论文/项目/简历指导、就业规划及Kaggle等竞赛辅导。现展示部分学员专属规划表,可通过小助理快速预约,提升学习效率。原创 2025-08-12 16:33:25 · 207 阅读 · 0 评论 -
杀疯了!Mamba+Unet双结合发论文医学图像分割
本文探讨了将Mamba与U-Net结合的创新方法,重点介绍了几种关键的技术融合策略。首先提出用Mamba替代U-Net编码器深层阶段或解码器跳跃连接中的传统卷积层,以高效捕捉长程依赖关系。其次,设计了基于Mamba的轻量化架构,通过残差视觉Mamba层显著降低模型复杂度。论文还提出了多尺度建模方案,结合像素级和块级状态空间模型实现层次化特征提取。在实验设计方面,建议选择医学图像分割数据集进行验证,并提供了详细的对比基线模型和评估指标原创 2025-07-21 17:08:08 · 1372 阅读 · 0 评论 -
暑假轻松发SCI
大牛轻松带你发论文原创 2025-07-03 14:52:19 · 171 阅读 · 0 评论 -
强化学习也能预训练?效果可提升20倍,华人新作引爆RL新范式!
来自OGBench基准测试的四个领域:单个立方体(cube single)、双立方体(cube double)、场景(scene)、谜题4x4(puzzle 4x4),包括20个基于状态的任务和4个基于图像的任务,用于评估我们的算法。为了测试InFOM,能否从无标签数据集中捕获基于用户意图的可操作信息,能否在微调后训练出高效的策略来解决下游任务,在36个基于状态的任务和4个基于图像的任务中,比较了InFOM和八个基线方法的性能。而InFOM不仅可预测多个未来步骤,还能适应用户不同的「意图」。原创 2025-07-01 15:11:34 · 905 阅读 · 0 评论 -
知识图谱结合什么好发论文
知识图谱(Knowledge Graph)作为融合结构化知识与语义关系的核心技术,与多个领域结合可产生丰富的研究创新点。以下从资料包:一、 人工智能学习路线及大纲二、计算机视觉OpenCV【视频+书籍】三、AI基础+ 深度学习 + 机器学习 +NLP+ 机器视觉 教程四、李飞飞+吴恩达+李宏毅合集五、自动驾驶+知识图谱等资料六、人工智能电子书合集【西瓜书、花书等】七、各阶段AI论文攻略合集【论文带读/代码指导/本硕博/SCI/EI/中文核心】原创 2025-06-27 14:58:04 · 918 阅读 · 0 评论 -
机器学习哪个方向好发sci呀,找方向好迷茫?
机器学习领域易发SCI的热门方向包括:1.可解释性机器学习(如SHAP方法),满足模型透明化需求;2.生物医学应用(疾病诊断、药物研发),受益于交叉学科期刊支持;3.工业自动化(预测性维护),具有实际应用价值;4.强化学习(机器人控制、自动驾驶),在交互决策领域前景广阔;5.生成式模型(GAN/VAE),推动图像和文本生成技术创新。这些方向因兼具理论价值与实践意义,易受权威期刊青睐。原创 2025-06-27 11:27:42 · 916 阅读 · 0 评论 -
10%训练数据超越100%表现,机器人学习领域迎来重要突破
密歇根大学和瑞典皇家理工学院的研究团队提出了 ViSA-Flow 框架,这是一种革命性的机器人技能学习方法,能够从大规模人类视频中提取语义动作流,显著提升机器人在数据稀缺情况下的学习效率。2. 连续任务性能:在 5 个连续任务完成方面,ViSA-Flow 达到 31.4% 的成功率,几乎是使用 10% 数据的次佳方法 GR-MG(16.2%)的两倍,甚至超过了使用 100% 数据训练的 SuSIE(26.0%)。由于语义分割在连续帧间的不稳定性,研究团队提出跟踪正确分割的手 - 物体交互掩码。原创 2025-06-11 16:12:57 · 610 阅读 · 0 评论 -
「Next-Token」范式改变!刚刚,强化学习预训练来了
RPT 将传统的对 next-token 的预测任务重构为对 next-token 的推理过程:对于预训练语料中的任意上下文,模型需在预测前对后续 Token 进行推理,并通过与语料真实的 next-token 比对获得可验证的内在奖励。另一方面,可验证奖励的强化学习 (RLVR) 利用客观的、基于规则的奖励,这些奖励通常来自问答对。最后,预训练期间的内部推理过程允许模型为每个预测步骤分配更多的思考(计算资源),这类似于将推理时间扩展能力提前应用到训练过程中,从而直接提升下一 Token 预测的准确性。原创 2025-06-11 16:02:59 · 828 阅读 · 0 评论 -
中南大学开发DeepDTAGen:用于药物靶标亲和力预测和靶标感知药物生成的多任务深度学习框架
药物选择性分析表明,DeepDTAGen 的亲和力预测与药物和靶标之间的生物学相关行为相一致,其中根据亲和力概况从每个数据集中选择两种药物:一种药物与不同靶标的亲和力变化很大,另一种药物与其靶标的亲和力水平一致。在最新的研究中,中南大学、赫尔辛基大学(University of Helsinki)的研究人员开发了一个新的多任务学习框架 DeepDTAGen,该框架可以预测药物-靶标结合亲和力,并同时生成新的靶标感知药物变体,并利用这两项任务的共同特征生成新型药物。」研究人员在论文里表示。原创 2025-06-10 14:40:36 · 646 阅读 · 0 评论 -
比自回归更灵活、比离散扩散更通用,首个纯Discrete Flow Matching多模态巨兽降临
近年来,大型语言模型(LLMs)在多模态任务中取得了显著进展,在人工通用智能(AGI)的两大核心支柱(即理解与生成)方面展现出强大潜力。与传统的自回归方法不同,FUDOKI 通过并行去噪机制实现了高效的双向信息整合,显著提升了模型的复杂推理和生成能力。与离散扩散架构相比,FUDOKI 采用更加通用的概率路径建模框架,从均匀分布出发,允许模型在推理过程中不断更新和修正生成结果,为多模态模型打开了一条崭新的技术路径。没时间读、不敢读、不愿读、读得少、读不懂、读不下去、读不透彻一篇完整的论文。原创 2025-06-10 14:29:58 · 539 阅读 · 0 评论 -
给强化学习加上约束,拯救熬夜调reward的你
南科大机器人控制与学习实验室(CLEAR Lab),致力于人形机器人控制,强化学习,与具身智能等方面的研究。原创 2025-06-05 17:50:32 · 1088 阅读 · 0 评论 -
创新点+1 仅需一行代码即可提升训练效果!
在这篇文章中只做了一个出人意料的简单调整,作者建议忽略来自优化器、与最近反向传播中当前梯度符号相反的任何更新。换句话说,建议只应用与当前梯度一致的更新,使更新更稳定,并与最新数据保持一致。他们发现这个小小的调整可以显著加快训练速度,大致梳理了下内容,一起看看。原创 2025-05-23 13:59:27 · 338 阅读 · 0 评论 -
Transformer原作、斯坦福、清华交大三篇论文共识:基座模型边界锁死RL能力上限
1、能力来源(source)语言模型的推理能力 = f(模型架构, token量, 训练数据多样性, 泛化能力)2、RL的作用(作用机制)RL ≈ 一个奖励驱动的路径偏移器• 将已存在于模型分布中的推理路径偏移为更高 reward 的选项• 提高成功率,但不生成新“知识”或“能力”3、提升路径(有效方向)想要获得新的 reasoning 能力 ≠ 强化训练需要更强的知识/经验(知识注入+架构优化+认知行为引导)RL不是创造能力,而是优化选择。原创 2025-05-22 17:28:32 · 743 阅读 · 0 评论 -
当Transformer遇到调优困境:工程师必备的模型性能提升路线图
本文探讨了机器学习项目中模型性能调优的系统方法论,强调了在超参数优化过程中探索与利用的平衡,以及参数间的关联性。文章提出了科学调优的四个关键步骤:目标定义、实验设计、结果分析和决策上线,并介绍了增量式演进策略和空间搜索的三维平衡方法。此外,文章还提供了训练曲线诊断法、方差分解模型和隔离图技术等结果验证工具,以及终局优化策略,包括验证集折叠技术、集成搜索策略和硬件感知优化。最后,文章提醒读者在调优前应确保数据清洗和模型框架选择等前期工作已完成,并提供了丰富的AI学习资源和论文指导服务。原创 2025-05-12 20:48:25 · 640 阅读 · 0 评论 -
研究生必看:学术入门,少走三年弯路,加快论文进度
温馨提示:本文适合研0的同学快速入门一篇论文,想冲顶刊的学霸可以期待我们后续的文章哦~在正文开始之前,我们为大家整理了【】,主要包括了:1、SCI论文写作、投稿、修改助手、插图规范2、SCI管理软件、英语写作辅助和润色、写作与画图必备神器3、SCI 写作套路化模板(高级句型)4、上千份八大主流神经网络及变体、大模型、AIGC等AI各方向论文及代码5、写论文必备书籍6、历年及最新优秀顶刊论文合集。原创 2025-05-12 20:35:13 · 642 阅读 · 0 评论 -
LoRI比Lora精简95%参数的同时,实现更强性能,Lora到底有多少参数是冗余的?
马里兰大学和清华大学的研究团队提出的LoRI技术,犹如一把精巧的瑞士军刀,以惊人的95%参数削减,不仅解决了资源消耗问题,更在多任务协同和持续学习方面展现出非凡潜力。以 Llama-3-8B 和 Mistral-7B 作为基础模型,他们的结果表明,LoRI 达到或超过了全量微调(FFT)、LoRA 和其他 PEFT 方法的性能,同时使用的可训练参数比 LoRA 少 95%。通过使用固定的、随机初始化的投影 A,LoRI 将任务特定的适配器映射到近似正交的子空间,从而减少合并多个 LoRI 时的干扰。原创 2025-05-09 16:10:56 · 1266 阅读 · 0 评论 -
ICML 2025 | 清华、上海AI Lab等提出傅里叶位置编码,多项任务远超RoPE
|机器之心长文本能力对语言模型(LM,Language Model)尤为重要,试想,如果 LM 可以处理无限长度的输入文本,我们可以预先把所有参考资料都喂给 LM,或许 LM 在应对人类的提问时就会变得无所不能。但是,LM 通常只在较短窗长下进行训练,可能产生过拟合,只学习到指定范围内的位置关系,但是无法理解没学习过的位置关系。为了缓解这个问题,当下最流行的便是引入具有周期性的旋转位置编码(Rotary Position Embedding,RoPE)。由于周期性编码每间隔一定距离就会出现数值重复,所以 L原创 2025-05-08 15:10:34 · 739 阅读 · 0 评论 -
频上Nature中科院一区!?多尺度注意力,显著涨点效果与强大的启发性
今天要给大家分享一个极具潜力的创新点 ——多尺度注意力,凭借其显著的涨点效果与强大的启发性,近来在学术界热度持续飙升。在目标检测领域,多尺度特征融合技术发挥着关键作用。将浅层网络细腻的细节特征,与深层网络富含语义的特征相结合,让小目标和遮挡目标无所遁形,显著提升检测性能。医学影像分割领域亦是如此,借助多尺度特征融合,能够精准捕捉病灶区域形态的多样性以及边界的模糊性,极大提高分割精度,为医疗诊断提供有力支持。不过,当下这一领域仍存在诸多挑战。原创 2025-04-28 15:30:26 · 743 阅读 · 0 评论 -
TTS和TTT已过时?TTRL横空出世,推理模型摆脱「标注数据」依赖,性能暴涨
另一个值得注意的现象是,随着模型大小的增加(从 1.5B 到 7B),其在 AIME 2024 和 AMC 上的性能提升也在增加,这凸显了 TTRL 的自然扩展行为:更大的模型可以在自我改进过程中产生更准确的多数投票奖励,从而更有效地学习新数据。值得注意的是,虽然 TTRL 仅依靠 Maj@N 指标进行监督,但其表现不仅能持续超越初始模型的性能上限,更能接近于那些直接在有标注测试数据上进行监督训练的模型性能。在 RL 中,奖励通常是模糊的,主要是作为探索的方向信号,这导致了 RL 对奖励噪声的鲁棒性。原创 2025-04-25 19:39:17 · 1008 阅读 · 0 评论
分享