- 博客(3)
- 收藏
- 关注
原创 RAG知识库
RAG是一种结合信息检索与文本生成的技术,旨在增强大型语言模型(LLM)的准确性与事实性。其核心思想是通过从外部知识库中检索相关信息,并将其作为上下文输入给生成模型,从而生成更准确、更相关的输出。
2025-06-22 22:17:22
886
原创 AI Agent四种设计范式(Agent >GPT5 ? )
AI Agent = 目标驱动 + 自动规划 + 工具高手 + 持续学习,像你的全能助理,把“你动嘴它跑腿”变成现实。
2025-05-05 12:57:45
1268
原创 Transformer模型架构原理
本文讨论了沈超杰于2025年3月21日分享的Transformer模型架构原理,涵盖其诞生背景、架构组成、训练过程等内容。关键要点包括:诞生:2017年6月12日,Google和多伦多大学发表论文《Attention is all you need》,Transformer架构问世,是所有LLM的始祖。架构:基于seq2seq架构,可完成NLP典型任务。总体架构分输入、编码器、解码器、全连接层四部分。输入:包含词序列的词嵌入向量和位置编码向量,位置编码可处理任意长度序列、捕捉相对位置信息。编
2025-03-28 09:22:15
1075
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅