
人工智能
文章平均质量分 90
Dontla
这个作者很懒,什么都没留下…
展开
-
LangChain介绍(开源大语言模型LLM应用构建框架,提供完整工具和组件,使开发者能够创建复杂、交互式且上下文感知的LLM应用)LangServe
LangChain作为构建LLM应用的框架,正在迅速发展并定义行业标准。掌握LangChain不仅能够快速构建功能强大的AI应用,还能够深入理解大语言模型在实际应用中的潜力与局限。随着技术不断进步,LangChain将继续扮演连接模型能力与实际应用需求的桥梁角色。原创 2025-03-17 13:42:45 · 1225 阅读 · 0 评论 -
LangChain(基础框架)、LangGraph(扩展框架)、LangSmith(开发者平台)有什么区别?
简而言之,LangChain 是基础框架,LangGraph 是专注于复杂流程的扩展,而 LangSmith 是帮助开发者监控和改进这些应用的平台工具。LangChain 是这个生态系统的基础库。原创 2025-03-17 11:32:22 · 832 阅读 · 0 评论 -
Cursor Agent、Ask、Edit模式区别(Agent模式适合从头构建项目或解决复杂问题;Ask模式适合理解和探索代码库,或小范围代码调整;Edit模式专注于添加或修改代码功能)
简而言之,如果你需要一个智能伙伴来帮助你从头构建项目或解决复杂问题,应该选择Agent模式;如果是为了理解和探索代码库,或者进行小范围的代码调整,Ask模式会更合适;而当你专注于添加或修改代码功能时,Edit模式将是更好的选择。根据具体的开发需求和任务复杂度,你可以灵活切换这三种模式。原创 2025-03-14 14:13:33 · 2844 阅读 · 0 评论 -
Cursor MCP终极指南(MCP教程、Cursor教程)★★★★★
看到这里你可能有一个问题,在 23 年 OpenAI 发布 GPT function calling 的时候,不是也是可以实现类似的功能吗?我们之前博客介绍的 AI Agent,不就是用来集成不同的服务吗?为什么又出现了 MCP。function calling、AI Agent、MCP 这三者之间有什么区别?本篇文章写的比较仓促,如果有错误再所难免,欢迎各位大佬指正。最后本篇文章可以转载,但是请注明出处,会在 X/Twitter,小红书, 微信公众号 同步发布,欢迎各位大佬关注一波。转载 2025-03-12 00:06:08 · 2818 阅读 · 0 评论 -
Cursor Mcp介绍(Model Context Protocol)(为Cursor中的代理型大语言模型(LLM)提供自定义工具支持)Mcp工具、Agent
Model Context Protocol(MCP)是一个开放协议,旨在为 Cursor 中的代理型大语言模型(LLM)提供自定义工具支持。它通过客户端-服务器架构,让 AI 能够安全、高效地与外部数据源和工具交互,极大扩展了开发者的工作流可能性。MCP 的核心在于标准化上下文传递,类似 AI 的“USB-C 接口”。例如,假设需要查询 Git 仓库状态,MCP 的gitMCP 的开放性鼓励开发者创建专属工具。测试连接Cursor MCP 不仅是工具,更是 AI 与现实世界的桥梁。原创 2025-03-10 16:51:46 · 3209 阅读 · 0 评论 -
AGI(Artificial General Intelligence,通用人工智能)技术介绍
(如语音识别、图像分类、围棋程序等只能处理特定任务的系统)不同,AGI的核心目标是实现类似人类的通用智能,能够自主学习、推理、适应新任务,并在多样化环境中灵活解决问题。总结来说,AGI被视为人工智能领域的“终极目标”,其研究融合了计算机科学、神经科学、哲学等多学科,但距离真正实现仍面临技术和理论的双重壁垒。结合知识图谱、符号逻辑与深度学习,提升推理能力(如OpenAI的GPT系列尝试融合语言与逻辑)。,通用人工智能)是指具备与人类相当或超越人类的广泛认知能力的人工智能。原创 2025-03-08 16:46:00 · 480 阅读 · 0 评论 -
Dify+DeepSeek | Excel数据一键可视化(创建步骤案例)(echarts助手.yml)(文档表格转图表、根据表格绘制图表、Excel绘制图表)
Dify部署参考:Dify Rag部署并集成在线Deepseek教程(Windows、部署Rag、安装Ragan安装、安装Dify安装、安装ollama安装)Dify+DeepSeek - Excel数据一键可视化(创建步骤案例)-DSL工程文件(可直接导入)Dify+DeepSeek - Excel数据一键可视化(创建步骤案例)-Markdown示例文件选中按Del:添加text字段输入:代码解释为执行代码节点添加直接回复节点创建节点节点测试 (无效)测试(Exce原创 2025-03-05 17:42:35 · 5831 阅读 · 5 评论 -
Dify Rag部署并集成在线Deepseek教程(Windows、部署Rag、安装Rag安装、安装Dify安装、安装ollama安装)
windows上直接用键盘鼠标手动操作就行。11434是ollama默认监听端口。原创 2025-03-03 17:48:23 · 1131 阅读 · 0 评论 -
Agent与Workflow的区别(融合应用:Agentic Workflow)
定义:具备感知、决策、执行能力的智能体,强调自主性与环境交互。技术特性动态推理:基于环境变化实时调整策略(如自动驾驶中避障决策)。多模态交互:通过自然语言处理(NLP)与用户交互(如虚拟助手)。目标驱动:面向开放任务,需长期规划(如游戏 AI 的路径搜索)。示例智能客服 Agent 通过分析用户历史对话记录,动态生成个性化回复,而非依赖固定模板。维度AgentWorkflow核心能力动态决策、环境交互流程编排、规则执行适用场景开放任务、不确定性高标准化流程、确定性高技术复杂度。原创 2025-03-03 14:52:57 · 902 阅读 · 0 评论 -
RAG检索增强生成(Retrieval-Augmented Generation)介绍(双模态架构:检索子系统、生成子系统)实现知识获取与内容生成的协同
集成LLM的推理能力与检索结果的上下文敏感性(如GPT-4的in-context learning机制)检索增强生成(Retrieval-Augmented Generation, RAG)通过构建。百度智能云提出RAG+Fine-tuning混合架构,在智能客服场景实现97.3%的准确率(基于向量化表征建立动态知识图谱(示例:使用BERT-Whitening优化句向量分布):腾讯云智能客服系统采用三级分层检索架构,实现平均响应时间<800ms(:突破传统LLM的静态知识边界,实现动态知识注入(参考。原创 2025-03-03 13:28:45 · 967 阅读 · 0 评论 -
LLaMA(Meta开源的AI模型)与Ollama(本地运行和管理大模型的工具)简介(注意这俩虽然名字相似但没有直接联系)
定位不同。原创 2025-02-28 15:39:48 · 1098 阅读 · 0 评论 -
Deepseek api接口调用(deepseek接口)(笔记3)——API 指南(对话前缀续写Beta、FIM 补全Beta、JSON Output、Function Calling、提示库)
在这个例子中,我们给出了计算斐波那契数列函数的开头和结尾,来让模型补全中间的内容。这里以获取用户当前位置的天气信息为例,展示了使用 Function Calling 的完整 Python 代码。在很多场景下,用户需要让模型严格按照 JSON 格式来输出,以实现输出的结构化,便于后续逻辑进行解析。中,用户可以提供前缀和后缀(可选),模型来补全中间的内容。DeepSeek 提供了 JSON Output 功能,来确保模型输出合法的 JSON 字符串。在下一轮对话中,之前轮输出的思维链内容不会被拼接到上下文中。原创 2025-02-28 11:46:44 · 1288 阅读 · 0 评论 -
Deepseek Api Function Calling解析(tools、tool_calls)Deepseek函数调用流程图、Python代码示例
根据官方文档和搜索结果,DeepSeek的Function Calling(函数调用)功能允许模型通过调用外部工具来增强其能力。核心原理。原创 2025-02-28 11:05:36 · 3129 阅读 · 0 评论 -
英伟达4090显卡ubuntu服务器部署deepseek大模型步骤(vLLM)(未验证)
通过vLLM部署可获得5-6倍的性能提升。[关键参考文档索引]原创 2025-02-27 18:03:44 · 1548 阅读 · 0 评论 -
Deepseek api接口调用(deepseek接口)(笔记2)——API 文档(调用示例)(Authentication、对话补全Chat、FIM 补全Beta单回合聊天、列出模型、查询余额)
根据输入的上下文,来让模型补全对话内容。原创 2025-02-27 14:43:28 · 402 阅读 · 0 评论 -
Deepseek Api 对话补全(Chat Completion)、补全(Completion)、FIM补全(Fill-in-Middle,Beta)区别
DeepSeek API中的不同接口针对不同场景设计,主要区别如下:messagespromptprefixsuffix具体参数请参考。原创 2025-02-27 14:00:55 · 2047 阅读 · 0 评论 -
Deepseek Api如何联网查询?(Deepseek联网、API联网)
在火山引擎平台创建 DeepSeek-R1 的推理接入点,关联应用后配置联网内容插件。需使用客户端工具 Cherry Studio 完成 API 和密钥的配置。腾讯云与 DeepSeek 合作提供集成服务,支持联网搜索功能。通过接入腾讯云的大模型知识引擎,可实时抓取互联网资讯,提升时效性。原创 2025-02-27 10:39:28 · 2827 阅读 · 0 评论 -
华为MindIE兼容OpenAI接口与兼容vLLM OpenAI接口的区别(华为VLLM)
等技术显著提升推理性能。其核心优势在于优化内存管理与并行计算,适用于自然语言处理(NLP)、图像生成、语音识别等场景。华为MindIE提供的两种兼容接口(兼容OpenAI接口和兼容vLLM OpenAI接口)主要在。Ascend-vLLM已用于Qwen1.5等大模型的NPU推理部署(为华为生态下的AI推理提供了高效、灵活的解决方案。)是一个针对大规模语言模型推理的高效框架,通过。华为针对昇腾NPU推出了。),并通过社区持续演进(原创 2025-02-27 10:06:37 · 1456 阅读 · 0 评论 -
Deepseek api接口调用(deepseek接口)(笔记1)——概览(deepseek实用应用、deepseek api文档、base_url与api_key、测试调用、非流式请求、错误码)
通过指定 model=‘deepseek-reasoner’,即可调用 DeepSeek-R1。出于与 OpenAI 兼容考虑,您也可以将 base_url 设置为 https://api.deepseek.com/v1 来使用,但注意,此处 v1 与模型版本无关。deepseek-chat 模型已全面升级为 DeepSeek-V3,接口不变。通过指定 model=‘deepseek-chat’ 即可调用 DeepSeek-V3。如果 30 分钟后,请求仍未完成,服务器将关闭连接。原创 2025-02-26 15:25:33 · 1604 阅读 · 0 评论 -
华为昇腾服务器固件Firmware、驱动Drive、CANN各自的作用与联系?
华为昇腾服务器的固件、驱动和CANN是支撑其AI计算能力的核心组件,三者分工明确且紧密协作,形成从底层硬件到上层应用的完整技术栈。通过理解三者的角色,开发者可以更高效地利用昇腾服务器的AI算力,并在系统调试时快速定位问题层级(硬件、驱动或应用)。原创 2025-02-21 17:24:36 · 740 阅读 · 0 评论 -
昇腾服务器:模型量化、W8A8量化、稀疏量化(量化是什么?为什么要做量化?)(模型权重、模型激活、模型剪枝、压缩模型压缩)Atlas 800I A2、Atlas 300I DUO
为什么要做量化?在实际应用中,尤其是在部署到资源有限的环境(如移动设备、边缘计算设备或特定的服务器硬件)时,模型的大小和计算速度至关重要。量化技术能够在保证模型性能基本不变的情况下,大幅度降低内存占用和计算资源的需求。原创 2025-02-20 10:34:29 · 1432 阅读 · 0 评论 -
Huggingface简介和基础使用指南(抱脸)(NLP公司、Transformers库、Huggingface Hub)
【代码】Huggingface简介和基础使用指南(抱脸)(NLP公司、Transformers库、Huggingface Hub)原创 2025-02-19 14:29:07 · 1872 阅读 · 0 评论 -
Claude四种回答模式Normal、Concise、Explanation、Formal区别
通过这些示例,我们可以看到每种模式如何根据不同的需求和场景来调整回答的风格和深度。选择合适的模式可以确保信息传递的效率和有效性,使交流更加顺畅和有针对性。Explanation模式旨在提供深入的理解。在这种模式下,Claude会提供详细的解释,将复杂的概念分解成更简单的部分。Normal模式是Claude的默认交流方式。这种模式下,Claude会尽可能用最少的词语传达最核心的信息。Formal模式采用更加专业和学术的语气。这种模式下的语言更加复杂,回答结构更加严谨。对于同样的问题:“什么是温室效应?原创 2025-01-23 07:30:00 · 1054 阅读 · 0 评论 -
自然语言处理NLP分词器概念(正向最大匹配FMM与逆向最大匹配RMM、隐马尔可夫模型HMM、条件随机场CRF、基于词典分词、基于统计分词、基于深度学习分词)
分词是将连续的文本流切分成独立的词语或符号的过程。对于没有明显分隔符的语言,如中文,分词尤为重要,因为词与词之间通常没有空格或其他明显的分隔标志。分词器的准确性直接影响到后续的文本分析、机器翻译、情感分析等任务的效果。最大匹配法。原创 2025-01-14 07:45:00 · 1378 阅读 · 0 评论 -
《LLM入门教程》大模型教程笔记1:环境配置(安装Anaconda安装、获取配置并测试OpenAI API key、find_dotenv()、load_dotenv()、os.getenv())
在你的config.py脚本中,会从当前工作目录开始,逐级向上查找.env文件,直到找到为止。当前工作目录的.env文件最近的父目录中的.env文件根目录这种查找机制确保了环境变量的灵活管理,使得不同的项目或子项目可以拥有各自独立的配置文件。原创 2024-12-23 17:55:48 · 1312 阅读 · 0 评论 -
ChatGpt检测是否降智指令(Chatgpt降智)
【代码】ChatGpt检测是否降智指令(Chatgpt降智)原创 2024-12-04 11:05:40 · 10507 阅读 · 9 评论 -
ChatGPT键盘快捷键(按ctrl + /呼出)
ChatGPT键盘快捷键原创 2024-11-07 16:40:12 · 1710 阅读 · 0 评论 -
【AI Agent入门】概念解析(Multiagent、RAQ、VectorDB、Langchain、Autogen、CrewAI、Pinecone、Firebase、Replit、Next.js)
然后慢慢的把agent,multiagent,RAQ,workflow,function calling,vectorDB这些慢慢研究,拿几个好用的llm api(比如openai和deepseek的api),配合上langchain,autogen(或者crewAI)这些框架,再配合pinecone,firebase这些向量数据库和普通数据库,前端用好v0这个对话式做ui的平台,可以再ssh连接replit套用现成template并且非常方便的直接托管和部署web app。原创 2024-09-08 22:37:41 · 1364 阅读 · 0 评论 -
AI Agent介绍
AI Agent指的是能够自动执行任务或在给定环境中做出决策的智能系统。它通过收集外部信息,并依据预设的算法来进行反应或解决问题。原创 2024-09-08 22:06:58 · 811 阅读 · 0 评论