llm
文章平均质量分 76
aaaak_
小码农 一枚 日常跳坑 ,欢迎来交流
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
基于大模型LLM 应用方案
LLM大模型 agent 智能体应用方案原创 2024-12-28 15:53:16 · 664 阅读 · 0 评论 -
LLM 大模型 token 消耗机制
思维链消耗属于模型内部计算过程,最终用户通常只能感知输入/输出token,但实际算力资源消耗包含该部分 用户无法直接干预思维链的分步细节 但可通过调整输入结构(如分步提问)间接影响推理方向。长对话中旧内容会逐步降权 ,动态裁剪,但token占用不会完全消失 例如 窗口限制与遗忘机制。中英混合场景的实际token数可能波动±15%(实际工程实现中可能有压缩优化)对话Token消耗明细原创 2025-02-25 11:43:06 · 1601 阅读 · 0 评论 -
LLM 大模型 Function Call 流程分析
LLM 通过使用各种技术来消除函数名称和参数的歧义,从而处理模糊的函数调用。上下文分析:LLM 分析函数调用的上下文以确定预期功能。这包括了解用户的意图、对话历史记录和可用的功能。函数定义:LLM 使用提供的函数定义来确定要调用的正确函数。这包括函数名称、描述和参数。如果多个函数具有相同的名称,LLM 可以使用描述和参数来消除歧义。参数匹配:LLM 将提供的参数与每个函数所需的参数进行匹配。如果某个函数需要特定参数,并且提供的参数匹配,则 LLM 可以确定要调用的正确函数。原创 2025-03-25 15:40:02 · 1058 阅读 · 0 评论
分享