- 博客(2)
- 收藏
- 关注
原创 品读论文《Attention is All You Nedd》之Transformer详解
Transformer 是一种基于注意力机制(Attention)的深度学习模型,它在 2017 年由 Google 提出,核心思想是“Attention Is All You Need”。与传统的RNN和CNN的模型不同,Transformer 完全抛弃了序列递归结构,通过注意力机制让每个位置的词都能直接关注到序列中其他所有位置,从而高效捕捉长距离依赖关系,并且可以并行计算,大大提高了训练效率。
2025-10-22 10:10:58
335
原创 一文读懂RAG分块策略:从问题到方案,从原理到实践,从场景到选型,全面解析提升RAG分块检索性能的核心技巧
RAG技术通过检索与生成的结合,有效解决了大模型在企业应用中的局限性。文章分析了RAG分块策略面临的三大核心问题:答案可信度不足、关键信息漏检和复杂文档解析瓶颈,并深入探讨了五种分块策略(固定尺寸分块、语义分块、递归分块等)的原理、实现及适用场景。其中,递归分块融合了结构化与非结构化处理,在保持语义完整性的同时实现灵活切分。不同策略各有优劣,需根据文档类型和应用场景进行选择,以优化RAG系统的知识检索效率和生成质量。
2025-09-19 11:15:46
275
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅