大模型应用
文章平均质量分 93
Tiandaren
努力产出相对高质量的文章,从自己的理解角度出发,希望大家一起进步。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
大模型应用03 || 函数调用 Function Calling || 概念、思想、流程
获取到原始数据后,还需要 LLM 将这些冰冷的数据转换成用户友好的自然语言。后端应用打包第二次请求后端应用将上一步中获取到的工具执行结果,连同之前的全部对话历史(包括用户的原始问题和 LLM 的第一次tool_calls响应),再次打包发送给 LLM API。这次请求相当于告诉 LLM:“你之前让我查的数据,我已经查到了,结果是{"temperature": "25°C", "condition": "晴"},现在请根据这个信息回答用户最初的问题。LLM 生成最终答复。原创 2025-11-05 17:25:57 · 856 阅读 · 0 评论 -
大模型应用02 || 检索增强生成Retrieval-Augmented Generation || RAG概念、应用以及现有挑战
RAG,全称检索增强生成(Retrieval-Augmented Generation),是一种将信息检索(Retrieval)系统与生成式(Generation)模型相结合的技术框架。其核心思路是:在大型语言模型(LLM)生成回答之前,先从一个指定的外部知识库(如内部文档、实时新闻数据库)中检索出与用户问题相关的上下文信息,然后将这些信息与原始问题一同提供给LLM,引导其生成更可靠、更具事实性的回答。原创 2025-11-03 17:12:14 · 1031 阅读 · 0 评论 -
大模型应用01 || LoRA 是什么?我们为什么需要它? || LoRA核心思想、实现细节与前沿改进
LoRA 通过假设模型权重在微调时的变化是低秩的,从而用两个极小的矩阵来模拟这种变化,实现了在几乎不增加推理延迟的情况下,用极少的参数(<0.1%)达到接近全量微调的性能。原创 2025-10-28 14:59:29 · 986 阅读 · 0 评论 -
自用提示词02 || Prompt Engineering || RAG数据切分 || 作用:通过LLM将文档切分成chunks
提示词,用于RAG数据切分原创 2025-10-27 17:16:48 · 529 阅读 · 0 评论 -
自用提示词01 || Prompt Engineering || 学习路线大纲 || 作用:通过启发式的问题来带动学习
提示词,用于生成一份用于学习和记笔记的、结构化的探索性大纲。原创 2025-10-24 17:12:47 · 978 阅读 · 0 评论
分享