- 博客(20)
- 收藏
- 关注
原创 智能体革命:Agent 的五大工作模式
本文系统介绍了智能体(Agent)的概念及其五种工作模式。智能体是指能感知环境、决策并执行任务的AI系统,其核心特性是自主性(Agentic)。文章详细阐述了五种智能模式:1)工具使用模式,通过调用外部工具完成任务;2)ReAct模式,将推理与行动结合形成循环;3)反思模式,对结果进行自我评估优化;4)规划模式,先分解任务再逐步执行;5)多智能体模式,多个智能体协同工作。这些模式构成从简单到复杂的演进阶梯,高级系统往往组合使用多种模式。文章还探讨了多智能体系统的通信效率与任务冲突解决方案。
2025-12-29 02:05:33
614
原创 AI世界的Type-C接口:MCP协议解析
MCP协议是由Anthropic提出的标准化工具调用协议,旨在解决传统工具调用中描述不一致和重复开发的问题。该协议采用客户端-服务端架构,支持三种通信方式:stdio(本地进程通信)、SSE(服务器推送)和Streamable-HTTP(双向流)。MCP的核心优势在于工具开发者只需一次定义功能描述,即可实现“一次编写,到处调用”。文中详细展示了Python实现案例,包括服务端工具封装、客户端直接调用和通过Agent调用的完整流程,并比较了不同传输方式的适用场景。MCP协议有望成为AI领域的通用接口标准。
2025-12-28 23:58:01
746
原创 LLM函数调用(Function Call):智能扩展AI能力
FunctionCall允许开发者将GPT模型与外部工具和API连接。它能解决大模型的信息实时性、数据局限性和功能扩展性问题。FunctionCall的工作原理是:开发者定义函数及其参数格式,模型根据用户输入判断是否需要调用函数并返回JSON格式的参数,开发者再根据参数执行具体函数。文章详细介绍了三种FunctionCall的实现方式:自定义JSON Schema、@tool装饰器和Pydantic数据验证方式,并比较了它们的优缺点。最后还介绍了如何通过Agent框架更便捷地调用FunctionCall功能
2025-12-21 13:12:32
985
原创 Milvus向量数据库:AI时代的向量搜索利器
Milvus 是一款专为存储和管理大规模嵌入向量设计的开源数据库,旨在处理由机器学习模型生成的非结构化数据(如图像、文本等)。它支持万亿级向量索引,核心功能是通过计算向量间的相似度(如欧氏距离、余弦相似度)来分析数据相关性。
2025-12-16 00:17:51
1175
原创 RAG:Embedding模型评测
本文系统解析了Embedding模型的评测体系及其业务应用价值。首先介绍了模型基础属性指标,包括零样本能力、内存占用、参数量等硬件参数。重点剖析了三大核心任务评测:分类任务通过k-NN算法评估文本分离能力;配对分类任务衡量语义相似度判断能力;检索任务考察文档排序质量。详细阐释了NDCG指标的计算方法,包括构建人工标注集、计算DCG/IDCG及归一化处理的全流程。该评测体系不仅为技术选型提供依据,更能指导Embedding技术在智能工单、电商去重、知识检索等业务场景中的落地应用。
2025-12-06 00:48:23
805
原创 LangChain:AI开发者的终极积木
LangChain是一个开源框架,旨在简化大语言模型(LLM)的集成和应用开发。它提供模块化组件,支持链式操作、数据增强生成(RAG)和智能代理(Agent)等功能。核心模块包括:模型接口统一化、提示模板管理、文档加载与分割、检索增强生成、记忆模块等。LangChain支持多种LLM接入方式,并提供输出解析器将模型响应结构化。其文档处理工具支持PDF、TXT等多种格式,文本分割器可按语义或结构切分内容。通过工具调用功能,LLM可访问外部系统获取实时信息。记忆模块实现多轮对话上下文管理。
2025-12-04 00:34:54
1953
3
原创 RAG技术:检索增强生成全解析
RAG(检索增强生成)是一种结合信息检索与生成模型的技术,通过外部知识库增强大语言模型的输出准确性。其工作流程分为索引、检索和生成三个阶段:索引阶段将数据分块并转换为向量存储;检索阶段根据查询匹配最相关文本;生成阶段结合检索结果生成最终回答。该技术由Facebook AI团队2020年提出,2022年后因ChatGPT的出现更注重利用大模型的推理能力。RAG的优势在于无需重新训练模型,通过连接外部知识库即可提升回答质量,减少错误信息产生。
2025-11-30 23:42:24
339
原创 掌握提示工程:5大原则提升AI对话效果
本文系统介绍了提示词工程(Prompt Engineering)的核心概念与技术。主要内容包括:1)提示词的定义与重要性;2)五大设计原则:明确目标、提供上下文、任务拆分、模型思考时间和外部工具辅助;3)六种关键技术:Zero-shot、Few-shot、思维链(CoT)、ReAct、Reflection和PromptChaining;4)Prompt攻防技术,分析攻击类型并给出防御方案。文章通过大量代码示例展示了如何运用这些技术优化大语言模型的输出效果,为开发者提供了实用的提示词工程实践指南。
2025-11-28 01:36:00
1459
原创 大模型揭秘:AI时代的超级大脑
本文系统介绍了大模型的技术特点、分类、评估方法和部署应用。大模型具有强迁移能力、涌现能力和统一框架等特点,可分为语言、视觉、多模态等类型。评估方法包括困惑度、BLEU等指标,以及标准化Benchmark测试。部署需考虑显存、计算资源等硬件需求,可采用vLLM等框架优化推理性能。大模型已广泛应用于内容生成、客户服务、医疗等领域,产品形态包括API、聊天机器人等多种形式。随着技术进步,大模型正推动AI向更通用、更高效的方向发展。
2025-11-25 00:43:42
969
原创 NLP——迁移学习入门到实践
FastText由Facebook开发的高效自然语言处理工具包,主要用于文本分类和词向量训练。其优势在于训练速度快,采用层次softmax和负采样优化计算效率。文章详细介绍了FastText模型架构、文本分类步骤(数据获取、预处理、训练评估)以及词向量迁移方法。此外,还探讨了迁移学习概念,介绍NLP常见预训练模型(BERT/GPT等)及其应用场景。最后通过实例演示了Transformers库在文本分类、特征提取等任务中的使用,包括pipeline、自动模型和具体模型三种实现方式,为NLP实践提供全面指导。
2025-11-14 09:25:56
1190
原创 Transformer模型架构全解析
Transformer是一种基于注意力机制的深度学习模型,由Google于2017年提出并在2018年发布的BERT模型中大放异彩。其核心优势包括并行计算能力和强大的特征提取性能。模型架构主要包含编码器和解码器两部分:编码器由多头自注意力机制和前馈神经网络组成,解码器在此基础上增加了编码器-解码器注意力层。关键技术包括位置编码、残差连接、层归一化和掩码机制等。Transformer通过多头注意力机制实现了序列信息的并行处理,克服了传统RNN/LSTM模型的序列依赖问题,该架构已成为NLP领域的主流模型。
2025-11-09 21:45:16
1098
原创 Attention——注意力机制案例:seq2seq英译法
本文介绍了基于GRU和注意力机制的英法翻译模型实现过程。首先对数据进行预处理,包括文本清洗、构建字典和数据集。然后设计编码器和解码器架构,编码器采用GRU提取特征,解码器结合注意力机制生成翻译结果。模型训练采用teacher forcing策略加速收敛,并可视化损失曲线监控训练过程。评估阶段测试了模型翻译效果,通过注意力矩阵可视化分析单词间的对应关系。实验表明,该seq2seq模型能有效完成英法翻译任务,注意力机制能合理捕捉源语言和目标语言的词汇关联。
2025-11-06 13:43:59
825
原创 Attention——注意力机制入门到实践
本文系统介绍了注意力机制的原理、分类与实现。注意力机制模拟人类感知方式,通过权重分配模型对输入数据的不同部分进行选择性关注,可有效提升模型性能。文章详细解析了注意力机制的核心组件Q(查询)、K(键)、V(值)三者的协同工作原理,并通过档案检索和商品搜索等实例说明其应用场景。最后通过PyTorch代码实现了注意力机制的计算流程。该机制已成为深度学习中的重要工具,广泛应用于机器翻译、文本摘要等任务。
2025-10-28 15:55:36
1204
原创 NLP——揭秘RNN系类模型:从原理到实战全解析(RNN、LSTM、GRU)
本文介绍了循环神经网络(RNN)及其变体LSTM和GRU的原理与应用。首先详细讲解了RNN的结构特点、计算方式及四种分类,并分析了传统RNN的局限性。接着阐述了LSTM通过遗忘门、输入门、细胞状态和输出门机制。随后介绍了GRU模型简化版的门控机制(更新门和重置门)。文章提供了PyTorch实现三类模型的代码示例,并通过人名分类任务进行实践对比。
2025-10-27 10:36:58
1631
原创 NLP——文本语料预处理
本文系统介绍了自然语言处理中的文本预处理技术,主要包括以下几个方面:1)文本处理基本方法如分词、命名实体识别和词性标注;2)文本张量表示方法包括one-hot编码、Word2vec和WordEmbedding;3)文本数据分析方法如标签分布统计、句子长度分析和词频统计;4)文本特征处理技术如n-gram特征添加和长度规范;5)文本数据增强方法特别是回译技术。文章通过具体代码示例详细展示了jieba分词、FastText词向量训练、文本长度规范等核心技术的实现过程,并分析了各种方法的优缺点和应用场景。
2025-10-26 00:12:33
1250
原创 高等数学公式中常见符号的中文读法
⊆⊆:真包含于,读作(is properly contained in)⊇⊇:真包含,读作(properly contains)∬∬:二重积分,读作(double integral)∭∭:三重积分,读作(triple integral)∉∈/:不属于,读作(not belongs to)⊂⊂:包含于,读作(is contained in)∩∩:交集,读作(intersection)∑∑:西格马,表示求和,读作(sigma)∇∇:nabla算子,读作(nabla)∈∈:属于,读作(belongs to)
2025-10-25 21:37:40
1938
2
原创 循环神经网络(RNN)模型介绍、构造及案例演示
本文介绍了循环神经网络(RNN)及其在自然语言处理中的应用。主要内容包括:1) RNN的概念和特点,能够处理序列数据并保留时序信息;2) 词嵌入层的原理和作用,将离散单词转换为连续向量表示;3) RNN网络结构和工作原理,通过隐藏状态传递序列信息;4) 基于PyTorch实现文本生成的完整案例,包括数据预处理、模型构建、训练和预测。案例使用周杰伦歌词数据训练RNN模型,实现给定起始词自动生成歌词的功能,展示了RNN在序列生成任务中的实际应用。
2025-10-22 09:34:14
1879
原创 卷积神经网络(CNN)模型介绍、构造、优化及案例演示
本文介绍了卷积神经网络(CNN)的基础知识和应用。主要内容包括:1)图像基础知识,如二值图像、灰度图像和RGB图像的特征;2)CNN的基本结构和工作原理,包括卷积层、池化层和全连接层的作用;3)卷积计算过程、填充(Padding)和步长(Stride)的作用;4)使用PyTorch实现卷积和池化操作;5)通过CIFAR10数据集展示了图像分类案例的完整流程,包括数据加载、模型构建、训练和评估。文章详细阐述了CNN在特征提取和图像分类中的应用,为读者提供了实用的深度学习实践指南。
2025-10-21 22:24:49
1133
原创 人工神经网络模型介绍、构造、优化及案例演示
本文系统介绍了神经网络的基本原理与应用方法。主要内容包括:1)神经网络结构解析,包括输入层、隐藏层和输出层的构造;2)激活函数(如Sigmoid、Tanh、ReLU、Softmax)的作用与选择策略;3)参数初始化的多种方法(Xavier、Kaiming等)及其适用场景;4)梯度下降优化算法(SGD、Momentum、Adam等)的比较与应用;5)正则化技术(Dropout、BatchNorm等)防止过拟合的方法;6)通过手机价格预测案例展示了神经网络的实际应用流程。文章提供了从理论到实践的完整指导。
2025-10-19 10:57:09
1264
原创 Pytorch——入门到实践(自动微分)
本文总结了PyTorch实现自动微分和线性回归的"14221"核心流程(1配置、4准备、2循环、2核心、1保存)。通过5个渐进式案例演示:从单变量/多轮权重更新到带偏置的线性回归实现,重点剖析了前向传播、反向传播(梯度清零/计算/更新)机制。完整案例展示了数据准备、模型训练(含损失可视化)和结果对比的全流程,强调维度匹配(如reshape处理)、梯度累积等关键细节。最后封装训练逻辑并实现损失曲线和预测效果的可视化,为深度学习入门提供清晰模板。
2025-10-15 22:51:12
805
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅