- 博客(2284)
- 资源 (1)
- 收藏
- 关注
原创 STELLA: Self-Evolving LLM Agent for Biomedical Research
生物医学数据、工具和文献的快速增长造就了一个碎片化的研究格局,其发展速度已超越人类专业知识的极限。尽管AI代理提供了一种解决方案,但它们通常依赖静态、人工整理的工具集,限制了其适应和扩展能力。在此,我们提出STELLA,一款旨在克服这些局限的自进化AI代理。STELLA采用多代理架构,通过两种核心机制自主提升自身能力:一个用于推理策略的进化模板库,以及一个随工具创建代理自动发现和整合新生物信息学工具而不断扩展的动态工具海洋。这使得STELLA能够从经验中学习。
2025-07-26 22:05:02
2
原创 AI Literacy and LLM Engagement in Higher Education: A Cross-National Quantitative Study
研究发现:LLMs能提升信息获取效率、改善写作质量并提高学术表现,但存在过度依赖、伦理风险及批判性思维弱化等担忧。影响因素:基于人工智能素养框架、期望价值理论和Biggs的3P模型(预设、过程、结果),发现学生的动机信念和技术能力显著影响其对LLMs的使用;LLM使用频率与感知到的素养收益(相关系数(r=.59),(p<.001))和乐观态度((r=.41),(p<.001))呈显著正相关。群体差异:美国学生比孟加拉国学生使用LLMs更频繁((F=7.92),(p=.005));
2025-07-26 09:30:00
3
原创 DIY-MKG: An LLM-Based Polyglot Language Learning System
本文介绍了一款基于大语言模型(LLMs)的多语言学习系统——DIY-MKG(Do-It-Yourself Multilingual Knowledge Graph),旨在解决现有语言学习工具的三大局限:缺乏多语言词汇间的语言学关联支持、个性化定制不足、以及可能导致的“认知卸载”(学习者过度依赖AI而缺乏独立思考)。词汇扩展:用户以已知词汇为初始节点构建多语言知识图谱,通过LLM生成相关词汇并选择性添加,强化词汇间的语言学关联(如同义词、同源词等);丰富注释。
2025-07-26 08:30:00
3
原创 Challenges & Opportunities with LLM-Assisted Visualization Retargeting
尽管网络上发布的可视化示例无处不在,但将现有的自定义图表实现重定向到新数据集仍然困难、耗时且繁琐。这一适配过程要求设计者既要熟悉示例的实现方式,又要了解新数据集可能需要如何转换才能适配示例代码。随着大型语言模型(LLMs)的最新进展,通过高层级的用户提示可以实现代码的自动适配,降低了可视化重定向的门槛。为了更好地理解LLMs如何辅助重定向及其潜在局限性,我们在多个数据集和不同复杂度的图表上描述并评估了LLM辅助的性能,并按类型和严重程度对失败案例进行分类。
2025-07-26 06:08:03
120
原创 Tuning without Peeking: Provable Privacy and Generalization Bounds for LLM Post-Training
梯度优化是深度学习的核心方法,通过反向传播实现高效且可扩展的训练。然而,其对大量标注数据的依赖引发了隐私和安全问题(如易受数据污染攻击),以及过拟合风险。相比之下,黑盒优化方法将模型视为“黑箱函数”,仅通过函数评估指导优化,在数据访问受限、对抗风险高或过拟合风险大的场景中具有潜力。但黑盒方法也面临显著挑战,包括在大型语言模型(LLMs)等高维参数空间中可扩展性差,以及因依赖大量模型评估导致的计算成本高。本文提出BBoxER,一种用于LLM后训练的进化黑盒方法,通过对训练数据的隐式压缩引入信息瓶颈。
2025-07-26 05:22:12
5
原创 The Thin Line Between Comprehension and Persuasion in LLMs
本文聚焦大型语言模型(LLMs)在辩论这一复杂对话形式中的表现,探究其说服能力与对对话内容理解能力之间的关系。实验设计:让LLM(部分结合形式对话模型FDM)与人类或其他LLM进行辩论,收集辩论 transcripts;由人类标注员从论据合理性、论证强度、胜负判定等7个维度对辩论进行标注;再让不同LLM对相同辩论进行评估,对比其结果与人类标注的一致性。核心发现LLM在生成辩论时表现出强说服力,尤其当人类未察觉其AI身份时,能显著动摇观点;
2025-07-25 09:30:00
88
原创 Evaluating the Promise and Pitfalls of LLMs in Hiring Decisions
本文聚焦大型语言模型(LLMs)在招聘决策中的应用评估,通过对比多个主流通用LLMs(如OpenAI的GPT系列、Anthropic的Claude、Google的Gemini、Meta的Llama等)与专有领域模型Match Score,探究其在候选人-职位匹配中的准确性与公平性。准确性:通过ROC曲线下面积(ROC AUC)、精确率-召回率曲线下面积(PR AUC)、F1分数衡量模型对候选人与职位匹配度的预测能力;公平性。
2025-07-25 08:30:00
120
原创 Precisely Detecting Python Type Errors via LLM-based Unit Test Generation
本文针对Python中类型错误导致的运行时故障问题,提出了一种名为RTED(Reflective Type Error Detection with LLMs)的新型类型感知单元测试生成技术。现有静态分析工具存在高假阳性率,而现有单元测试生成技术(如基于搜索或LLM的方法)因缺乏针对性指导,难以生成能揭示类型错误的测试用例。约束分析阶段:通过调用链分析捕获上下文感知的类型约束,借助“错误寻找代理”反向传播约束,识别可能触发类型错误的输入类型,并评估调用链的风险等级;测试生成阶段。
2025-07-24 09:30:00
126
原创 MemAgent: Reshaping Long-Context LLM with Multi-Conv RL-based Memory Agent
尽管在长度外推、高效注意力和记忆模块方面已有改进,但以线性复杂度处理无限长文档且在外推过程中不出现性能退化,仍是长文本处理中的终极挑战。我们以端到端方式直接优化长文本任务,提出了一种新颖的代理工作流MemAgent,它以分段方式读取文本,并使用覆盖策略更新记忆。我们扩展了DAPO算法,通过独立上下文多对话生成促进训练。MemAgent已展示出卓越的长上下文能力,能够从8K上下文(在32K文本上训练)外推到350万token的QA任务,性能损失<5%,并在512K的RULER测试中达到95%以上的准确率。
2025-07-24 08:30:00
84
原创 CORE: Benchmarking LLMs’ Code Reasoning Capabilities through Static Analysis Tasks
本文介绍了一个名为CORE的高质量、人工验证的基准测试集,旨在评估大型语言模型(LLMs)在基础静态分析任务中的代码语义推理能力。该基准涵盖数据依赖、控制依赖和信息流三大核心静态分析任务,包含12,553个任务实例,涉及C/C++、Java、Python三种编程语言,均来自180个经过语义感知多样化采样的程序。推理型模型在多数任务上显著优于非推理型模型,性能差距为5.2%-31.5%,其中Gemini 2.5 Pro整体表现最佳;
2025-07-23 09:30:00
400
原创 Do Role-Playing Agents Practice What They Preach? BeliefBehavior Consistency in LLM-Based Simulation
本文聚焦于基于大型语言模型(LLMs)的角色扮演代理在模拟人类信任行为时的“信念-行为一致性”,即模型陈述的信念(“说什么”)与实际模拟行为(“做什么”)之间的匹配程度。研究以“信任游戏”(Trust Game)为测试平台,通过构建评估框架,从群体层面和个体层面系统探究了影响一致性的关键因素,并分析了研究者施加理论先验对一致性的影响。核心问题:LLM角色扮演代理在生成人类行为合成数据时,其陈述的信念与实际模拟行为是否一致?研究方法。
2025-07-23 08:30:00
127
原创 Data Diversification Methods In Alignment Enhance Math Performance In LLMs
本文研究了偏好优化中的数据多样化策略对提升大语言模型(LLMs)数学推理能力的作用。作者评估了三种常见的数据生成方法(温度采样、思维链提示、蒙特卡洛树搜索(MCTS)),并提出了一种新的结构化方法——Diversified-ThinkSolve(DTS),该方法通过系统地将问题分解为多样化的推理路径生成数据。实验结果显示,通过策略性多样化的偏好数据,模型的数学推理性能显著提升:最佳方法在GSM8K基准上比基础模型提升7.1%,在MATH基准上提升4.2%。
2025-07-22 09:30:00
75
原创 Synergizing Logical Reasoning, Knowledge Management and Collaboration in Multi-Agent LLM System
本文探索了整合先进的多智能体系统(MAS)技术,以开发具备增强逻辑推理、长期知识保留和心智理论(ToM)能力的智能体团队。通过将这些核心组件与优化的通信协议相结合,我们创建了一个名为SynergyMAS的新型框架,该框架能促进协作团队合作和卓越的问题解决能力。通过一个产品开发团队的案例研究,我们证明了该系统的有效性——我们的方法显著提升了团队的性能和适应性。这些发现凸显了SynergyMAS在应对复杂现实挑战方面的潜力。
2025-07-22 08:30:00
144
原创 SCALING LLM PLANNING: NL2FLOW FOR PARAMETRIC PROBLEM GENERATION AND RIGOROUS EVALUATION
本文聚焦于提升大型语言模型(LLMs)的规划与推理能力,针对现有研究中可扩展数据生成和严格评估的瓶颈,提出了全自动系统NL2FLOW。该系统能够参数化生成规划问题(涵盖自然语言描述、结构化中间表示和形式化PDDL格式),并对LLM生成的计划质量进行严谨评估。最优模型在可行问题上的有效计划生成率达86%,最优计划生成率达69%;问题特征对计划生成的影响取决于模型和提示设计;将推理任务分解为中间翻译步骤(如自然语言转JSON)可能降低性能,直接从自然语言推理到行动的模型表现更优。
2025-07-21 09:30:00
454
原创 EvalAssist: A Human-Centered Tool for LLM-as-a-Judge
本文介绍了EvalAssist——一个以人为中心的工具,旨在简化“以LLM作为评判者(LLM-as-a-judge)”的工作流程。该工具主要解决大规模语言模型(LLM)输出评估中耗时、成本高、流程复杂的问题,帮助从业者高效判断不同模型和提示词在特定任务中的表现。提供在线评估标准开发环境,支持用户交互式构建、测试和分享自定义评估标准(结构化且可移植格式);支持基于LLM的评估流程,利用现成LLM和基于UNITXT开源库的“提示链(prompt-chaining)”方法;
2025-07-21 08:30:00
151
原创 Reasoning on a Budget: A Survey of Adaptive and Controllable Test-Time Compute in LLMs
该论文围绕大型语言模型(LLMs)的推理效率展开,聚焦测试时计算(Test-Time Compute, TTC)策略,旨在解决LLMs推理时计算资源分配不合理(对简单问题过度思考、对复杂问题思考不足)的问题。核心背景:LLMs虽在多任务中表现优异,但推理时通常采用固定计算量,导致效率低下。TTC方法通过在推理时动态分配计算资源提升效率,但现有方法存在资源浪费问题。分类框架:提出两层分类法L1(可控方法)
2025-07-20 09:30:00
90
原创 MGC: A Compiler Framework Exploiting Compositional Blindness in Aligned LLMs for Malware Generation
核心背景:大型语言模型(LLMs)降低了软件开发门槛,但也带来了恶意软件生成的安全风险。现有LLM对齐机制(如意图防护、政策过滤)主要针对单个提示进行检查,却忽视了“组合盲点”——恶意操作可分解为看似良性的子任务,单独绕过过滤。MGC框架设计:提出恶意软件生成编译器(MGC),通过模块化分解和规避对齐的生成策略利用上述漏洞。前端:使用弱对齐LLM将高层恶意意图分解为恶意软件描述中间表示(MDIR),MDIR作为结构化抽象层,保留组件间逻辑关系同时确保单个组件看似无害。
2025-07-20 08:30:00
146
原创 Reasoning or Not? A Comprehensive Evaluation of Reasoning LLMs for Dialogue Summarization
本文针对对话摘要任务,首次系统评估了推理型大语言模型(LLMs,如OpenAI-o1、DeepSeek-R1、QwQ-32B)与非推理型LLMs在三种主流范式(通用型、角色导向型、查询导向型对话摘要)中的表现。研究覆盖多语言、多领域和不同摘要长度,基于SAMSum、DialogSum、CSDS、QMSum等基准数据集,结合LLM自动评估指标和类人评估标准进行分析。核心发现显示:与其他推理密集型任务不同,显式的逐步推理(如思维链)并未持续提升对话摘要质量;
2025-07-19 09:30:00
101
原创 When LLMs Disagree: Diagnosing Relevance Filtering Bias and Retrieval Divergence in SDG Search
本文聚焦大型语言模型(LLMs)在可持续发展目标(SDGs)相关文献检索中的相关性标注分歧问题,以开源模型LLaMA和Qwen为研究对象,针对SDG 1(消除贫困)、3(良好健康与福祉)、7(清洁能源)的学术摘要展开分析。研究核心围绕四个问题:1)不同LLM的过滤决策分歧频率及受影响文档类型;2)分歧是否具有系统性,能否通过词汇、语义或主题特征解释;3)分歧如何影响下游检索排序;4)一个模型的过滤行为能否预测另一个模型的行为(即分歧是否可学习)。
2025-07-19 08:30:00
142
原创 LLM Weekly(2025.07.07-07.13)
SmolLM3 支持六种语言,具备双模式推理能力,并能处理长达 128k token 的上下文,为社区发展提供了完整的训练蓝图。LongVILA-R1–7B 模型在视频问答基准测试中表现优异,实现了速度和性能的提升,并支持在多种媒体和模型类型上的灵活 RL 训练。Nvidia 实现了 4 万亿美元的市值,成为首家达到这一里程碑的上市公司,这主要得益于其在 AI 发展中的核心地位。它集成了共享的主干网络用于策略和过程奖励模型,消除了对过程注释的依赖,并提供三种推理努力模式。
2025-07-18 16:15:19
369
原创 Dissecting the Impact of Mobile DVFS Governors on LLM Inference Performance and Energy Efficiency
问题发现:当前移动设备的CPU、GPU和内存调控器独立工作,缺乏协调,导致LLM推理的延迟和能效表现不佳。在相同能耗下,默认调控器的预填充和解码延迟比最优频率组合最多高40.4%;在相同延迟下,能耗最多高16.6%。原因分析:通过控制实验发现,独立调控器存在两大问题:(1)单独工作时,CPU和GPU调控器倾向于选择过低频率,导致延迟增加;(2)协同工作时,CPU和GPU调控器会触发“向下螺旋”效应——相互促使对方降低频率,进一步恶化性能。解决方案。
2025-07-18 09:00:00
125
原创 CROP: Circuit Retrieval and Optimization with Parameter Guidance using LLMs
本文提出了一种名为CROP(Circuit Retrieval and Optimization with Parameter Guidance using LLMs)的框架,旨在解决超大规模集成电路(VLSI)设计中电子设计自动化(EDA)工具的参数调优问题。两阶段框架设计阶段1(数据库构建):将已有电路的RTL源代码通过LLM分析生成模块级和整体设计摘要,再转换为密集向量表示(嵌入),同时存储这些设计的最优参数配置(参数指导)。阶段2(检索增强参数搜索)
2025-07-18 08:00:00
89
原创 PAE MobiLLM: Privacy-Aware and Efficient LLM Fine-Tuning on the Mobile Device via Additive
本文提出了,一种基于服务器辅助的“ additive side-tuning”技术,旨在解决移动设备上大语言模型(LLM)微调面临的资源限制、通信负担和隐私泄露问题。该方法通过将LLM微调任务分配给移动设备和服务器:移动设备保留冻结的主干模型,而计算密集的可训练侧网络卸载到服务器。通过激活缓存、单token激活传输和隐私保护的侧网络设计,PAE MobiLLM在提升效率的同时,确保用户数据、真实标签和微调模型始终保留在本地设备,最终实现了移动设备上高效且隐私安全的LLM微调。
2025-07-17 09:30:00
99
原创 Enhancing LLM Agent Safety via Causal Influence Prompting
本文提出了一种名为因果影响提示(Causal Influence Prompting, CIP)的新技术,旨在通过因果影响图(Causal Influence Diagrams, CIDs)增强大型语言模型(LLM)代理的安全性。核心问题:LLM代理在执行复杂任务(如网页搜索、移动设备控制、代码执行)时,可能因缺乏风险预判而导致隐私泄露、恶意代码执行等安全问题,现有安全提示方法(如Safety-guided Chain-of-Thought、Safety-Aware Prompting)仍存在局限性。
2025-07-17 08:30:00
80
原创 Are AI-Generated Fixes Secure? Analyzing LLM and Agent Patches on SWE-bench
该研究聚焦于大型语言模型(LLMs)和智能体框架生成的代码补丁的安全性,通过分析SWE-bench数据集中20,000+真实世界GitHub问题的修复补丁,对比了独立LLM(Llama 3.3)、三种智能体框架(OpenHands、AutoCodeRover、HoneyComb)与开发者编写的补丁在安全性上的差异,并探究了导致漏洞的关键因素。
2025-07-16 13:30:00
108
原创 Symbolic or Numerical? Understanding Physics Problem Solving in Reasoning LLMs
本文聚焦于推理型大型语言模型(LLMs)在物理问题求解中的能力,以Deepseek-R1及其蒸馏模型为研究对象,通过SciBench基准中的三个物理数据集(涵盖经典动力学、热力学、基础物理),系统评估了零样本思维链(Zero-Shot CoT)和少样本思维链(Few-Shot CoT)两种提示策略的效果。推理型LLM(如Deepseek-R1)在无需大量提示工程或外部工具的情况下,物理问题求解准确率显著优于通用聊天模型(如GPT-4-Turbo),零样本平均准确率达75.9%,少样本进一步提升至81.3%
2025-07-16 10:30:00
83
原创 Context-Aware Code Wiring Recommendation with LLM-based Agent
本文针对软件开发中“复制-粘贴-修改”实践中的代码适配问题,提出了一种基于大语言模型(LLM)的智能代理工具WIRL,用于实现上下文感知的代码连接(code wiring)。代码连接指将粘贴代码中未解析的变量(或元素)替换为本地上下文里的合适元素,是代码复用中最常见的适配需求。现有方法多依赖启发式规则或历史模板,无法有效利用上下文信息,而超过56%的代码适配场景依赖上下文。核心组成。
2025-07-16 09:30:00
15
原创 La RoSA: Enhancing LLM Efficiency via Layerwise Rotated Sparse Activation
本文提出了一种名为LaRoSA(Layerwise Rotated Sparse Activation,层-wise旋转稀疏激活)的新方法,旨在通过激活稀疏化提升大型语言模型(LLM)的推理效率。其核心思路是利用层-wise正交旋转将输入激活转换为更适合稀疏化的形式,再通过Top-K选择实现稳定的模型级稀疏性,从而在不额外训练或依赖经验幅度剪枝的情况下,减少计算开销和内存传输,同时保证性能下降最小化。
2025-07-16 08:30:00
13
原创 RALLY: Role-Adaptive LLM-Driven Yoked Navigation for Agentic UAV Swarms
该论文针对无人机群的智能控制问题,提出了一种名为RALLY(Role-Adaptive LLM-Driven Yoked Navigation)的角色自适应大语言模型(LLM)驱动的协同导航算法。传统多智能体强化学习(MARL)方法存在数值通信中的语义鸿沟和角色结构僵化问题,而基于LLM的方法则缺乏在线学习能力,过度依赖静态先验知识,导致探索效率低。LLM驱动的语义决策框架:采用两阶段结构化自然语言推理(局部意图生成→邻域共识优化),实现高效语义通信与协同推理;动态角色异质性机制。
2025-07-15 10:30:00
82
原创 TuCo: Measuring the Contribution of Fine-Tuning to Individual Responses of LLMs
本文聚焦于大型语言模型(LLMs)微调对个体响应的影响,提出了一种量化微调贡献的新方法——Tuning Contribution(TuCo)。核心问题:现有研究多关注微调对模型整体性能的影响,缺乏对个体输出的定量分析,尤其是微调如何影响模型对特定提示的响应。方法基础:基于Transformer的残差结构,将微调模型精确分解为预训练组件(PTC)和微调组件(FTC)。PTC是预训练模型各层的输出,FTC是微调模型与预训练模型对应层输出的差值。TuCo定义。
2025-07-15 09:30:00
207
原创 Do LLMs Dream of Discrete Algorithms?
本文探讨了大型语言模型(LLMs)在严格逻辑推理、离散决策和可解释性方面的局限性,提出了一种神经符号(neurosymbolic)方法,通过整合基于逻辑的推理模块(尤其是Prolog谓词和可组合工具集)来增强LLMs的能力。文章指出,LLMs擅长概率推理任务(如翻译、摘要),但在数学证明、逻辑谜题等需严格逻辑的场景中表现不佳,易产生“幻觉”(hallucination)或错误的步骤分解。为解决这一问题,研究提出让LLMs通过组合预定义的模块化组件来分解复杂查询,而非生成任意代码。
2025-07-15 08:30:00
136
原创 Thinking with Images for Multimodal Reasoning: Foundations, Methods, and Future Frontiers
范式转变:传统多模态推理依赖文本思维链(CoT),将视觉视为静态输入;新范式则将视觉作为动态认知工作空间,通过中间视觉步骤实现推理,更接近人类认知模式。三阶段框架阶段1:工具驱动的视觉探索:模型调用预设工具(如目标检测、OCR)主动分析图像,代表方法包括基于提示(如MM-REACT)、监督微调(如LLaVA-Plus)和强化学习(如Chain-of-Focus)。阶段2:程序化视觉操作:模型生成代码(如Python)自定义视觉操作,实现灵活的复合任务,代表方法包括VisProg、ViperGPT等。
2025-07-14 09:30:00
120
原创 Does Math Reasoning Improve General LLM Capabilities? Understanding Transferability of LLM Reasoning
本文聚焦于大型语言模型(LLMs)的数学推理能力是否能迁移到其他领域,以探究模型在数学任务上的提升是否反映了通用问题解决能力,而非仅针对特定任务的过拟合。研究背景:近年来,LLMs在数学推理基准(如MATH、AIME)上的表现快速提升,甚至超越人类水平,但数学推理能力的提升是否能迁移到其他领域尚不明确。实验设计评估了20多个开源推理调优模型,覆盖数学推理、科学问答、代理规划、编码、指令遵循等任务。
2025-07-14 08:30:00
98
原创 Can LLM Improve for Expert Forecast Combination? Evidence from the European Central Bank Survey
本文探讨了利用大型语言模型(LLMs)进行宏观经济预测组合的潜力,旨在克服传统平均方法的局限性,并充分利用LLMs处理复杂信息的能力。研究通过构建零样本学习框架,结合提示工程(包含历史准确性加权、滞后补偿、趋势增强),让LLMs动态分析专家的预测模式并生成组合预测,对比LLM组合与简单平均在不同场景(如不同经济指标、专家分歧度、注意力水平)下的表现。本文聚焦大型语言模型(LLMs)在专家预测组合中的应用,以欧洲央行(ECB)的专业预测者调查(SPF)数据为基础,探讨LLMs能否提升宏观经济预测的准确性。
2025-07-13 09:30:00
23
原创 From Individuals to Interactions: Benchmarking Gender Bias in Multimodal Large Language Models
多模态大型语言模型(MLLMs)在涉及视觉和文本模态的任务中展现出令人印象深刻的能力。然而,人们对其潜在的性别偏见编码与放大风险的担忧持续存在,尤其是在社会敏感应用中。现有基准主要评估孤立场景中的偏见,却忽视了偏见可能通过人际互动微妙显现的情况。本文填补了这一空白:不再局限于单一实体评估,而是深入考察双个体互动中的关系型和情境性性别偏见。我们提出GENRES,这一新颖基准旨在通过生成叙事中的社会关系视角评估MLLMs的性别偏见。
2025-07-13 08:30:00
111
原创 CLUES: Collaborative High-Quality Data Selection for LLMs via Training Dynamics
本文针对大型语言模型(LLMs)在协作训练场景中(数据无法直接共享)的高质量数据选择问题,提出了一种名为CLUES的方法。核心思路是基于训练动态(training dynamics)的影响来筛选高质量数据,即高质量数据与锚定数据集(anchor dataset)的训练动态更相似。本地训练动态评分:客户端计算私有数据中每个样本的梯度与公共验证集梯度的内积累积迹,作为数据质量分数;全局锚定阈值筛选。
2025-07-12 10:30:00
97
原创 Token Activation Map to Visually Explain Multimodal LLMs
本文聚焦多模态大型语言模型(MLLMs)的可解释性问题,提出了一种名为令牌激活图(Token Activation Map, TAM)的新方法。与传统视觉模型(如CNN、ViT)仅生成单一输出不同,MLLMs会逐步生成多个令牌(tokens),且每个令牌的生成依赖于前文上下文,这导致上下文令牌会对后续令牌的解释产生冗余激活干扰,而现有方法往往忽略这一问题。为解决该问题,TAM引入了估计因果推理方法,以减轻上下文干扰,同时提出秩高斯滤波器减少激活噪声。
2025-07-12 09:30:00
143
原创 GENERALIST REWARD MODELS: FOUND INSIDE LARGE LANGUAGE MODELS
大型语言模型(LLMs)的对齐严重依赖于在昂贵人类偏好数据上训练的奖励模型。尽管近期研究探索通过AI反馈绕过这一成本,但这些方法往往缺乏严谨的理论基础。本文发现,一种强大的通用奖励模型已潜在存在于任何通过标准下一个token预测训练的LLM中。我们证明,这种内生奖励并非启发式方法,而是理论上等价于通过离线逆强化学习学到的奖励函数。这一关联使我们能够直接从基础(预训练或有监督微调)模型中提取高质量奖励信号,无需任何额外训练。
2025-07-12 08:30:00
35
原创 Development and Comparative Evaluation of Three Artificial Intelligence Models (NLP, LLM, JEPA)
本文旨在比较三种人工智能(AI)模型——自然语言处理(NLP)、大型语言模型(LLM)和联合嵌入预测架构(JEPA)在急诊科(ED)分诊预测中的表现。研究以法国里尔Roger Salengro医院急诊科7个月的成人患者分诊数据为基础,回顾性分析了657例符合条件的患者数据,训练并验证了三个模型:TRIAGEMASTER(NLP)、URGENTIAPARSE(LLM)和EMERGINET(JEPA)。
2025-07-11 10:04:13
21
原创 Perspective Dial: Measuring Perspective of Text and Guiding LLM Outputs
本文提出了,一种用于量化、测量和控制文本(尤其是大型语言模型(LLMs)生成文本)视角的框架,旨在解决LLM输出中偏见和视角的可量化理解与控制问题。核心组件视角空间(Perspective Space):基于语言模型的嵌入空间,通过对比学习(采用BERT-based孪生网络架构)构建的度量空间,可对特定主题的不同视角进行定量测量。系统性提示工程(Systematic Prompt Engineering):利用贪婪坐标下降算法,基于视角空间的测量反馈优化用户提示,将LLM输出视角引导至用户指定的方向。
2025-07-11 09:30:00
94
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人