自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(77)
  • 收藏
  • 关注

原创 基于 Next.js(前端)和 FastAPI(后端)使用 WebSocket(满血版DeepSeek-R1回答)

满血版DeepSeek-R1回答,如何基于Next.js(前端)和 FastAPI (后端)使用 Websocket建立前后端持久连接。

2025-03-05 17:10:39 1034

原创 Langchain解锁LLM大语言模型的结构化输出能力(多种实现方案)

在本篇博客中,我们将进一步学习了解对模型输出进行结构化控制的其他方案,分别是 少样本示例引导(Few-shot prompting)、结构化方法指定(Specifying the method for structuring outputs)和 直接解析模型输出(Direct prompting and parsing)。

2025-03-03 17:10:36 1104

原创 什么是Agentic AI?(Doubao-1.5-pro-32k 大模型开启联网回答)

火山引擎 Doubao-1.5-pro-32k 大模型开启联网回答提问,“什么是Agentic AI?”

2025-03-02 22:05:54 463

原创 什么是 Agentic AI?(满血版DeepSeek-R1回答)

火山引擎满血版DeepSeek-R1回答提问,“什么是 Agentic AI”

2025-03-02 21:57:58 928

原创 LangChain解锁LLM大语言模型的结构化输出能力:调用 with_structured_output() 方法

我们需要通过各种方式手段让LLM具备符合我们期望的结构化输出能力,即模型能够按照用户指定的格式或规则生成内容(而不仅仅是自由形式的文本)的能力。这种能力使LLM的输出结果更易于被程序解析、集成到自动化流程中,以一种更为可控的方式满足特定落地场景的需求。

2025-02-26 16:42:08 1838

原创 火山引擎 | 字节旗下云服务平台 | 全速体验DeepSeek-R1满血版!

邀请好友注册和使用,最高双方可获得145元代金券,免费抵扣3625万tokens,畅享R1与V3模型!满血版 deepseek-r1 体验。邀请码:ZTQIL4Q2。

2025-02-25 20:04:19 254

原创 LangGraph 中实现 “时间旅行”:让人机对话具备“撤销”和“重试”能力

LangGraph 的 “时间旅行” 功能允许你通过方法获取对话的历史检查点,并从中选择一个状态来恢复和继续对话。它解决了用户希望回退修复错误或探索不同对话路径的需求。通过这种功能,你可以让chatbot变得更智能、更灵活,为用户提供更好的交互体验。

2025-02-25 12:47:41 920

原创 PixVerse V4 尝鲜!文生视频&背景音

一只威严的大熊猫身披工艺繁复的中国传统汉服,绣有精致纹样,丝绸广袖随风轻扬,静坐于苍翠空灵的奇幻森林中。熊猫优雅拨动着竹制吉他的琴弦,金色弦光流转,荡开阵阵旋律涟漪,与雀鸟啁啾、枝叶婆娑共鸣交响。柔和的阳光透过雾霭笼罩的树冠,织就迷离光晕。场景将超写实质感与含蓄的水墨画意境交融,营造出自然与乐韵交织的静谧仙境。这是一场ASMR式的声景融合——中国传统庭院声学(庭院声学)与吉卜力工作室式环境叙事的奇妙共鸣,每个视觉元素都携带着独特的声音指纹,随着熊猫乐章的推进编织成动态的声场生态。

2025-02-24 14:46:39 310

原创 当AI开始玩“狼人杀“:联邦学习的魔幻现实主义指南(Deepseek-R1 回答)

输入提示词:你是一个笔风幽默风趣的技术博客的博主,你将就“联邦学习”这个AI话题给大家介绍“联邦学习”的基础概念和适用场景,请确保博客内容与时俱进并且通俗易懂。

2025-02-24 11:52:05 635

原创 DeepSeek 与 DeepSeek-R1 专业研究报告

DeepSeek 与 DeepSeek-R1 专业研究报告

2025-02-21 11:15:11 715

原创 基于LangGraph和Ollama实现可调用AI搜索引擎Tavily的Agentic RAG问答机器人

这篇博客将和大家分享如何快速实现一个运行逻辑相较于传统链式RAG(用户询问 -> 检索相关信息作为上下文 -> LLM推理回复)更为智能、适应性更强的Agentic RAG Chatbot。

2025-02-18 15:54:42 1194

原创 基于Ollama和LangChain使用embeddings模型进行文档检索

在LLM基于本地或外部知识库的问答机器人应用开发中,当模型外部知识的索引需要通过语义匹配而非基于正则表达式实现的精确匹配时,我们往往会借助基于深度学习训练得到的embeddings模型对文本进行向量化(当然也可以使用基于词频的算法,如TF-IDF、BM25等),然后通过相似度检索的方式得到与用户提问(user query)相关度最高的外部知识内容。本篇博客将介绍如何通过本地化使用embedding模型,并结合 langchain 该框架中提供的相关类,搭建一个hello world级别的文档检索器。

2025-02-14 15:09:36 1745

原创 传统RAG和Agentic RAG之间的区别及各自适用场景(ChatGPT-4o回答)

传统RAG适合用于需要准确检索和信息丰富生成的任务,而agentic RAG则更适合需要动态交互和复杂任务处理的场景。选择哪种技术应根据具体应用需求和环境来决定。

2025-02-12 16:51:10 178

原创 使用LangChain自定义tools的三种方式

LLM对外部工具的使用现在可谓其必备技能之一。当我们使用LangChain/LangGraph等框架去编排定制一些或简单或复杂的LLM应用时,自定义LLM在处理用户提问时需要用到的工具是一个非常常见的步骤,熟练掌握自定义工具的过程是很有必要的。由此,本篇博客将尽可能详细地介绍如何基于LangChain相关python库中提供的模块组件进行工具的自定义,一起来学习吧!本篇博客内容将参考 LangChain 关于创建自定义工具的官方文档,并结合案例代码运行效果展示和较为详细的文字解释(这部分大概率有 ChatG

2025-02-10 19:43:10 1290

原创 Next.js简介:现代 Web 开发的强大框架(ChatGPT-4o回答)

Next.js 是由 Vercel 开发和维护的开源 React 框架。它旨在帮助开发者轻松构建静态网站和服务器端渲染(SSR)应用。Next.js 的设计初衷是简化复杂的 Web 应用开发流程,使开发者能够专注于编写高质量的代码,而无需过多考虑配置和性能优化。

2025-02-07 23:23:28 440

原创 python中的lambda function(ChatGPT回答)

Python 中的lambda函数是一个匿名函数,它没有名字,通常用于定义简单的、一次性使用的函数。它可以接受任意数量的参数,但只能有一个表达式,并且该表达式的结果就是返回值。lambda参数表达式。

2025-02-06 20:10:50 335

原创 LangGraph中的Human-in-the-loop技术(GPT-4o 回答)

Human-in-the-loop(人类参与)是一种将人类输入整合到自动化流程中的技术。在这一过程中,人类在关键阶段对机器生成的结果进行决策、验证或修改,从而确保最终输出的准确性和可靠性。这种方法特别适用于那些对错误容忍度极低的场景,如合规、决策制定和内容生成等。

2025-02-05 14:34:03 564

原创 LangGraph 通过in-memory持久化实现多轮对话能力Chatbot

在已有chatbot的基础上,让我们再进一步让对话机器人具备对历史交互上下文的记忆能力,以打造一个可以与用户进行连贯(多轮)对话能力的chatbot。

2025-01-23 14:42:32 1275

原创 LangSmith 简单使用说明(结合上篇博客食用更佳)

上篇博客详细给大家介绍了如何,其中关于LangSmith的部分没有怎么展开,这篇文章就简单介绍一下LangSmith的基本使用作为补充。在我们运行代码时,比如问,可以在终端看到三次来自Assistant的输出内容。因为代码的处理是将每一次graph更新的消息列表信息打印出来,所以不管是从Assistant的数量还是从基于下方图的逻辑推荐都可以知晓这次graph的迭代一共有三次的状态更新。

2025-01-22 19:43:02 670

原创 基于LangGraph、Groq和Tavily打造可以调用外部搜索引擎工具的对话机器人(核心代码 & 万字详解)

首先,创建一个继承自TypedDict类的子类State,且State类定义了一个messages键,用于定义描述graph状态的数据结构。messages键的类型被指定为list,意味着该键的值是一个列表,用于存储Graph状态变化时产生的消息。Annotated则是用来为messages类型(列表)添加额外的元数据,以此控制messages键的列表值的更新方式为追加而不是默认的覆盖。

2025-01-22 17:12:49 1641

原创 Cursor 运行python项目如何选用已有的conda环境

便可看到所有已创建的conda环境列表,根据项目运行所需的环境进行选择即可。(Windows);这个时候会弹出一个检索框,输入。打开 cursor,按下快捷键。

2025-01-18 22:39:37 912

原创 力荐李宏毅老师的生成式AI公开课

课程网页:Introduction to Generative AI 2024 Spring

2025-01-17 21:17:08 229

原创 Agentic AI 和 AI Agent 之间的区别(ChatGPT回答)

agentic ai和ai agent之间的区别

2025-01-17 11:05:10 644

原创 Single-agent和Multi-agent的区别及各自适用的落地场景(ChatGPT-4o,智谱清言 GLM 4 Plus 回答)

基于LLM的Single-Agent是指利用LLM作为核心组件,独立完成特定任务的智能体。这种智能体不依赖于其他智能体的协作或竞争。基于LLM的Multi-Agent是指多个智能体共同工作,通过通信、协作或竞争来完成复杂任务的系统。每个智能体可能基于相同的或不同的LLM。基于LLM的Single-Agent和Multi-Agent各有其独特的优势和适用场景。Single-Agent适用于简单、独立的任务,而Multi-Agent适用于复杂、需要多智能体协作的任务。

2025-01-14 18:04:34 1118

原创 基于 Groq 和 CrewAI 搭建一个响应快速的智能体

大家可以基于上述 groqcloud 在官方教程中提供的代码为基础,创建用于解决某特定业务场景的其他角色(产品经理、软件开发工程师等)来搭建智能体回答 or 解决复杂场景问题的流程。

2025-01-14 14:32:39 458

原创 如何让 LLM 使用外部函数 or 工具?Llama-3-Groq-8B-Tool-Use 模型使用详解

定义两个非常基础的有关于数学运算的函数(这里我让 ChatGPT 生成了),一个是两个数的加法函数,另一个是计算数字阶乘的函数,都是数学里面比较基础的运算。# 加法函数:计算两个数的和# 阶乘函数:计算给定数字的阶乘return 1else:result = 1类似于 OpenAI 在 llm进行函数调用时定义的规范,我们按照Groq 在 huggingface model card中的prompt示例中对tool的json描述将定义好的两个python函数进行同样规范下的描述。

2025-01-13 17:40:51 1461

原创 使用supervisor对python脚本进行管理的步骤及好处(ChatGPT回答)

总的来说,使用 Supervisor 管理 Python 脚本的好处在于提高了可靠性、可维护性和自动化水平,特别适用于需要长期运行且容易出错的任务。这样,您就可以使用 Supervisor 管理 Python 脚本的启动、停止、重启等操作了。目录下为您的 Python 脚本创建一个配置文件,例如。例如,如果您的 Python 脚本路径是。如果您的系统中没有安装。

2025-01-10 16:23:06 990

原创 来自28亿美元估值的超级独角兽Groq的AI芯片,让LLM推理快到飞起

成立于2016年,以快著称的美国人工智能芯片独角兽Groq,2024年8月5日官宣融资6.4亿美元(截止到当前最新一轮融资)。Groq的语言处理单元(LPU, Language Processing Unit)专为AI推理和语言处理而设计,是应时而生、实现AI超快推理的核心技术。

2025-01-10 00:00:04 588

原创 Agent | Dify中的两种可选模式

参考Dify 为智能助手提供了两种推理模式: Function calling(函数调用)和 ReAct。

2025-01-08 20:44:06 2793

原创 Kibana:LINUX_X86_64 和 DEB_X86_64两种可选下载方式的区别

最近需要在vm(操作系统是 Ubuntu 22.04.4 LTS,代号 Jammy。这是一个基于 x86_64 架构的 Linux 发行版)上安装一个7.17.8版本的Kibana,并且不采用docker方式。在下载的时候发现有以下两个选项,分别是和,就请教了一下 ChatGPT-40,回答如后文所示。有需要的朋友可以根据自己的实际需要选择合适的下载方式。以下为 ChatGPT-4o 回答内容。

2024-12-23 16:29:31 470

原创 FastAPI介绍和简单示例代码(ChatGPT-4o生成)

FastAPI 是一个用于构建 API 的现代、快速(高性能)的 Web 框架,基于标准 Python 类型提示。它使用 Python 的异步特性(async 和 await),以便构建高效的 API 服务。FastAPI 的设计目标是提供高性能、易于使用和生产就绪的框架,同时通过自动生成文档和类型检查提高开发者的效率。FastAPI 的主要特点高性能: 基于 Starlette 和 Pydantic,具有非常高的性能。简单易用: 利用 Python 的类型提示,简化了代码的编写。自动生成文档: 提供

2024-12-19 19:13:27 408

原创 MeiliSearch:一款轻量级开源搜索引擎

Meilisearch 是由 Meili (一家总部位于法国的软件开发公司)创建的搜索引擎,目前在上有 47.9k stars。

2024-12-13 18:31:14 1614

原创 Milvus中如何实现全文检索(Full Text Seach)?

在前两篇文章中(和),我们了解了Milvus基于dense vector和sparse vector实现的混合向量检索,这篇文章让我们着重了解一下基于sparse vector的检索,即全文检索。

2024-12-09 17:26:22 2416

原创 Milvus python库 pymilvus 常用操作详解之Collection(下)

上篇博客主要介绍了 pymilvus 库中Collection集合的相关概念以及创建过程的代码实现,现在我们要在该基础上实现对于collection中插入数据的混合检索(基于dense vector 和 sparse vector)。首先回顾一下我们创建的名为因为我们想实现的检索功能是基于两个向量表达的混合检索,所以需要将名为和的字段设置为针对于向量数据的Index索引,即 Milvus中有一个重要概念,向量索引。

2024-12-03 18:32:26 1695

原创 Milvus python库 pymilvus 常用操作详解之Collection(上)

使用方式:通过python环境中安装第三方库并调用相关方法实现在正式讲解代码之前,我们先了解一下Milvus向量数据库中涉及到的一个重要概念,Collection集合。

2024-12-02 13:17:32 1954

原创 Docker和Docker Compose部署方式的区别以及各自适用的场景(ChatGPT-4o回答)

单一 vs 多容器管理:Docker主要用于单个容器的管理,而Docker Compose用于管理多容器应用。配置方式:Docker使用命令行逐个配置容器,Docker Compose使用配置文件批量管理。复杂性:Docker适合简单应用,Docker Compose更适合复杂应用和服务编排。这些工具在各自的使用场景中都非常强大,可以根据应用程序的需求选择最合适的工具。

2024-11-28 22:44:27 648

原创 BGE-M3模型结合Milvus向量数据库强强联合实现混合检索

官网介绍:https://milvus.io/introMilvus 是一个以高效检索和高扩展性为特点的开源向量数据库,支持对大量的非结构化数据(如文本,图像还有多模态数据信息等)进行组织和检索。Milvus 使用Go和C++编程语言开发实现, 并通过CPU/GPU指令级优化,以实现最佳的向量搜索性能。Milvus 提供多种本地部署1. 基于 Kubernetes (K8s) 的全分布式架构:处理数万甚至数十万每秒查询请求,向量数据规模达到数十亿级别的大规模应用。需要高可扩展性和实时数据更新能力。

2024-11-27 22:15:27 5214 5

原创 Python除了使用requests库去调用api还有什么其他方式吗?(ChatGPT回答)

requestsurllibhttpxhttpxaiohttpsocketgrpc根据具体的场景和需求选择合适的方式。

2024-11-18 11:46:43 398

原创 Elasticsearch中的数据流(Data Streams)和索引(Indices)之间是什么关系?(ChatGPT回答)

数据流是一个逻辑结构,用于组织和管理多个时间序列相关的索引。索引是数据存储的具体单位,数据流中的每个索引遵循一定的生命周期管理策略。数据流通过ILM 策略自动管理索引的滚动和删除操作,使得用户可以集中精力处理数据而不需要直接管理索引的生命周期。通过数据流,Elasticsearch 提供了一种更简化的方式来处理时间序列数据,自动管理索引的创建、滚动、查询和删除。

2024-11-08 15:57:20 1153

原创 Elasticsearch和Lucene之间是什么关系?(ChatGPT回答)

Lucene是一个强大的搜索引擎库,提供了高效的索引和查询功能,但使用起来较为复杂,需要开发者手动管理索引和查询流程。则是基于 Lucene 的分布式搜索引擎,通过封装 Lucene 的功能,并添加分布式、近实时、聚合分析等高级特性,使得搜索引擎的使用更加简单和高效。简而言之,Elasticsearch 使用 Lucene 作为底层引擎来处理搜索和索引操作,但提供了更加用户友好的功能和接口,并解决了分布式搜索和集群管理的复杂性。

2024-11-07 20:06:43 1241 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除