大模型
文章平均质量分 90
银河以北呀
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
当AI自我纠错:一个简单的“Wait“提示如何让模型思考更深、推理更强
论文《s1: Simple test-time scaling》由Niklas Muennighoff等人提出,探讨了通过测试时间扩展提升大语言模型性能的简单方法。研究核心在于预算强制技术,通过控制模型生成思考标记的数量,优化推理过程。作者还精心策划了s1K数据集,包含1,000个高质量、高难度且多样性的问题,用于模型训练。实验表明,s1-32B模型在多个推理基准上表现出色,尤其在AIME24、MATH500和GPQA Diamond上,随思考时间增加,准确率显著提升。预算强制方法在控制性、扩展性和性能上均原创 2025-05-18 23:55:35 · 1122 阅读 · 0 评论 -
通过推测搜索加速大型语言模型推理 (SpecSearch) 论文总结
SpecSearch:革命性双层推测框架,让LLM思考飞速提升!本文提出首个双层推测搜索框架,在思考和令牌两个层面同时加速大模型推理。通过创新的质量保持拒绝机制,SpecSearch实现了高达3.35倍的加速,同时保持模型推理质量不降低。实验表明,小型模型可生成40%超越大模型平均水平的思考,基于此设计的动态阈值筛选机制完美平衡速度与质量。这一突破使复杂推理在资源受限场景下成为可能,为LLM实时应用开辟新天地。原创 2025-05-10 15:51:10 · 874 阅读 · 0 评论 -
DeepSeek系列论文解读四之DeepSeek Prover V2
创新点贡献描述冷启动推理数据生成方法形式化优先,反向配对非正式语言,构建更严谨的训练样本子目标驱动的递归证明流程支持复杂定理分层解构,大幅提升模型效率与可扩展性非 CoT + CoT 模型协同训练策略兼顾速度与解释性,适应多场景使用结构奖励强化学习框架(GRPO)强化“多步逻辑链”保留,提升复杂任务稳定性ProverBench 数据集首次引入教材与竞赛混合评测集,扩大了评估覆盖范围。原创 2025-05-07 11:26:34 · 780 阅读 · 0 评论 -
微调BERT模型实现文本分类
模型微调只是针对某种下游任务,针对性的强化模型的能力,但是微调之后的模型在泛化能力上有所下降。原创 2025-02-23 00:13:17 · 1114 阅读 · 0 评论
分享