- 博客(4)
- 收藏
- 关注
原创 LEAST-TO-MOST PROMPTING ENABLES COMPLEX REASONING IN LARGE LANGUAGE MODELS(ICLR 2023)
创新点:least-to-most prompting的问题分解和逐步利用子问题答案的机制很有价值。这种方式模拟了人类解决复杂问题的思维过程,使模型能够更好地处理超出示例难度的问题,提高了模型的泛化能力和推理能力。局限性:分解提示在不同领域的通用性较差,针对不同类型问题需要设计新的提示来实现最佳性能。在一些复杂问题上,模型可能仍然难以准确分解问题或正确解决子问题,导致整体性能受限。适用性:该方法依赖于精心设计的提示,复现可能需要对不同任务进行提示的调整和优化。
2025-07-14 16:31:14
335
原创 LEAST-TO-MOST PROMPTING ENABLES COMPLEX REASONING IN LARGE LANGUAGE MODELS(ICLR 2023)
● 创新点:least-to-most prompting的问题分解和逐步利用子问题答案的机制很有价值。这种方式模拟了人类解决复杂问题的思维过程,使模型能够更好地处理超出示例难度的问题,提高了模型的泛化能力和推理能力。● 局限性:分解提示在不同领域的通用性较差,针对不同类型问题需要设计新的提示来实现最佳性能。在一些复杂问题上,模型可能仍然难以准确分解问题或正确解决子问题,导致整体性能受限。● 适用性:该方法依赖于精心设计的提示,复现可能需要对不同任务进行提示的调整和优化。
2025-07-14 16:29:16
605
原创 LARGE LANGUAGE MODELS AS ANALOGICAL REASONERS(ICLR 2024)
摘要:本文提出"类比提示"方法,通过让大语言模型自动生成相关示例来增强推理能力。该方法在无需人工标注的情况下,针对具体问题定制化生成推理示例,结合了零样本思维链的通用性和少样本思维链的针对性优势。实验表明,在GSM8K数学题和Codeforces编程题等任务中,该方法使用GPT-3.5时准确率分别达77.8%和15%,优于传统方法(75.8%和9%)。消融实验显示生成3-5个多样化示例效果最佳。未来可优化提示策略以生成更具泛化性的示例。该工作为提升大语言模型推理能力提供了新思路。
2025-07-14 16:24:31
756
原创 Alphafold2环境安装(非Docker方式)2023
注:这里jaxlib版本要下载正确,与cuda的版本一致,我的cuda版本为11.3,cudnn版本为8.2.1.32,选择 jaxlib==0.3.25+cuda11.cudnn82 也能正常使用。查询cuda和cudnn版本,我这里显示cuda11.7为driver API,cuda11.3为runtimeAPI,cudnn版本为8.2.1.32。参数后将下载small_bfd数据集而不下载bfd数据集,后面运行AlphaFold时, AlphaFold参数。出现以下内容,就说明安装好了。
2023-06-29 21:34:41
3730
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅