
大模型
文章平均质量分 78
IT果果日记
头条和微信搜索“IT果果日记”
展开
-
Ollama+LangFlow实现智能问答系统
大模型的缺点是支持的上下文长度有限,如果想要某个问题毕其功于一役的给大模型一次新回答出来,超出了大模型的Token长度限制,大模型会回答不出来。LangFlow可以将问题拆解成多个小问题,分多次调用OpenAIOllama结点,最终得到问题的答案。例如,想要对一段超长文章生成摘要,可以将文章拆解成10份,每一份文本片段都单独使用一个大模型结点生成摘要,然后将10份摘要汇聚在一起。LangFlow也支持多种类型的流程结点。除了前文中提到的Chat Input属于Inputs属于OutputsPrompt。原创 2025-02-08 10:52:28 · 1090 阅读 · 0 评论 -
Ollama+OpenWebUI部署本地大模型
Ollama是一个强大且易于使用的本地大模型推理框架,它专注于简化和优化大型语言模型(LLMs)在本地环境中的部署、管理和推理工作流。可以将Ollama理解为一个大模型推理框架的后端服务。原创 2025-02-02 20:24:30 · 1540 阅读 · 0 评论