mllm
文章平均质量分 83
Miss.至
medical image segmentation; ai; dl; cnn; python; c++; llm; transformer;
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Langchain4 - LangGraph Quick Start 1
LangGraph Quick Start 1 官方文档语言模型本身不能执行操作——它们只能输出文本。LangChain的一个大用例是创建代理。代理是使用llm作为推理引擎来确定采取哪些操作以及执行操作所需的输入的系统。在执行操作之后,可以将结果反馈到LLM,以确定是否需要更多操作,或者是否可以完成操作。这通常是通过调用工具实现的。在本教程中,我们将构建一个可以与搜索引擎交互的代理。你可以问这个代理问题,看着它调用搜索在本教程中,我们将在LangGraph中构建一个支持聊天机器人,它可以:✅通过网络原创 2025-01-07 14:41:41 · 2115 阅读 · 0 评论 -
Langchain1 - Build a Simple LLM Application
在这个快速入门中,展示如何使用LangChain构建一个简单的LLM应用程序。现在,我们将消息列表直接传递给语言模型。原创 2025-01-07 12:42:40 · 452 阅读 · 0 评论 -
Langchain2 - Build a Chatbot
介绍一个如何设计和实现基于llm的聊天机器人的示例。这个聊天机器人将能够进行对话,并记住以前与聊天模型的交互。原创 2025-01-07 11:02:57 · 716 阅读 · 0 评论 -
模态大模型2-提示技术(Prompt Engineering Guide)
为了提高大语言模型的性能使其更可靠,一个重要的提示工程技术是将任务分解为许多子任务。确定子任务后,将子任务的提示词提供给语言模型,得到的结果作为新的提示词的一部分。这就是所谓的链式提示(prompt chaining),一个任务被分解为多个子任务,根据子任务创建一系列提示操作。链式提示可以完成很复杂的任务。LLM 可能无法仅用一个非常详细的提示完成这些任务。在链式提示中,提示链对生成的回应执行转换或其他处理,直到达到期望结果。除了提高性能,链式提示还有助于提高 LLM 应用的透明度,增加控制性和可靠性。转载 2024-11-22 14:46:59 · 167 阅读 · 0 评论 -
多模态大模型1
有时,当我们明确地指示模型在得出结论之前从第一原则进行推理时,我们会得到更好的结果。例如,假设我们需要一个模型来评估学生对数学问题的解决方案。最明显的解决方法就是简单地询问模型学生的解决方案是否正确。策略:在急于得出结论之前,指示模型自己找出解决方案。openai官方的prompt。gpt-3.5-turbo输出。GPT-4o-mini 输出。这里模型选择挺有趣的。原创 2024-11-20 15:46:02 · 375 阅读 · 0 评论
分享