科研漫谈
文章平均质量分 84
onceco
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
领域LLM九讲——第5讲 为什么选择OpenManus而不是QwenAgent(附LLM免费api邀请码)
本文对比了OpenManus和Qwen-Agent两大LLM框架的核心模块差异。OpenManus采用面向对象设计,强调明确的规划-执行流程,适合结构化任务;Qwen-Agent则基于函数调用机制,支持动态工具注册和并行执行,灵活性更强。两者在LLM接口、工具系统、记忆管理等方面各有特色:OpenManus绑定OpenAI,Qwen-Agent兼容多模型;OpenManus工具管理手动,Qwen-Agent自动注册;OpenManus仅短期记忆,Qwen-Agent支持长期检索记忆。文末还提供了硅基流动平台原创 2025-07-05 18:00:32 · 857 阅读 · 0 评论 -
使用duckduckgo_search python api 进行免费且不限次数的搜索
使用duckduckgo_search python api 进行免费且不限次数的搜索。原创 2025-06-18 21:16:22 · 732 阅读 · 0 评论 -
MotleyCrew ——抛弃dify、coze,手动搭建多agent工作流
- 协调器: CrewMotleyCrew 的核心是一个 “Crew” 对象,即多代理系统的指挥者。Crew 持有一个全局的知识图谱(使用 Kuzu 图数据库),用于记录所有任务、任务单元和其执行状态。Crew 不断循环查询“可执行任务”(所有上游依赖完成的任务),调用get_next_unit() 获取下一步的任务单元,并将其分派给对应的执行者(Agent)。任务单元被分派后即加入知识图,当执行完成时触发任务的 on_unit_completion 逻辑。Crew 支持同步与异步两种模式:在异步模式下原创 2025-06-15 21:26:50 · 1023 阅读 · 0 评论 -
科研漫谈——17种rag方案全览
下表系统性梳理了 17 种 RAG(Retrieval-Augmented Generation)改进方法,按照「文档分块」「检索与重排序」「后处理与反馈」分类。每种方法附带方法说明、效果亮点、典型场景、代表工具及效果评分(0–100 分)。原创 2025-05-24 21:00:30 · 1016 阅读 · 0 评论 -
科研漫谈——RAG在LLM中如何调用
主要解决如下问题: 1. rag作为数据‘外挂’,和提示词工程的先后顺序是怎样的? 2. rag的每个阶段在做什么? 3. 长文本条件下,如何有效解决?原创 2025-05-17 19:29:56 · 1080 阅读 · 0 评论 -
科研漫谈——为什么说RAG在LLM中不可替代?
RAG(Retrieval-Augmented Generation)作为一种将信息检索与生成模型相结合的技术方案,通过在生成阶段引入外部知识库,大幅提升了模型的准确性、时效性和可解释性。原创 2025-05-10 16:26:39 · 615 阅读 · 0 评论 -
科研漫谈——SurveyX:通过LLM实现自动化学术调查(附邀请码)
从SurveyX工作出发,通过观察其对任务的解析和中间过程prompt结构,探讨对领域工作流构建的思路原创 2025-05-05 18:41:36 · 2268 阅读 · 0 评论
分享