
大模型LLM
文章平均质量分 91
Dontla
这个作者很懒,什么都没留下…
展开
-
LangChain介绍(开源大语言模型LLM应用构建框架,提供完整工具和组件,使开发者能够创建复杂、交互式且上下文感知的LLM应用)LangServe
LangChain作为构建LLM应用的框架,正在迅速发展并定义行业标准。掌握LangChain不仅能够快速构建功能强大的AI应用,还能够深入理解大语言模型在实际应用中的潜力与局限。随着技术不断进步,LangChain将继续扮演连接模型能力与实际应用需求的桥梁角色。原创 2025-03-17 13:42:45 · 1225 阅读 · 0 评论 -
LangChain(基础框架)、LangGraph(扩展框架)、LangSmith(开发者平台)有什么区别?
简而言之,LangChain 是基础框架,LangGraph 是专注于复杂流程的扩展,而 LangSmith 是帮助开发者监控和改进这些应用的平台工具。LangChain 是这个生态系统的基础库。原创 2025-03-17 11:32:22 · 832 阅读 · 0 评论 -
Cursor MCP终极指南(MCP教程、Cursor教程)★★★★★
看到这里你可能有一个问题,在 23 年 OpenAI 发布 GPT function calling 的时候,不是也是可以实现类似的功能吗?我们之前博客介绍的 AI Agent,不就是用来集成不同的服务吗?为什么又出现了 MCP。function calling、AI Agent、MCP 这三者之间有什么区别?本篇文章写的比较仓促,如果有错误再所难免,欢迎各位大佬指正。最后本篇文章可以转载,但是请注明出处,会在 X/Twitter,小红书, 微信公众号 同步发布,欢迎各位大佬关注一波。转载 2025-03-12 00:06:08 · 2818 阅读 · 0 评论 -
Cursor Mcp介绍(Model Context Protocol)(为Cursor中的代理型大语言模型(LLM)提供自定义工具支持)Mcp工具、Agent
Model Context Protocol(MCP)是一个开放协议,旨在为 Cursor 中的代理型大语言模型(LLM)提供自定义工具支持。它通过客户端-服务器架构,让 AI 能够安全、高效地与外部数据源和工具交互,极大扩展了开发者的工作流可能性。MCP 的核心在于标准化上下文传递,类似 AI 的“USB-C 接口”。例如,假设需要查询 Git 仓库状态,MCP 的gitMCP 的开放性鼓励开发者创建专属工具。测试连接Cursor MCP 不仅是工具,更是 AI 与现实世界的桥梁。原创 2025-03-10 16:51:46 · 3209 阅读 · 0 评论 -
Dify+DeepSeek | Excel数据一键可视化(创建步骤案例)(echarts助手.yml)(文档表格转图表、根据表格绘制图表、Excel绘制图表)
Dify部署参考:Dify Rag部署并集成在线Deepseek教程(Windows、部署Rag、安装Ragan安装、安装Dify安装、安装ollama安装)Dify+DeepSeek - Excel数据一键可视化(创建步骤案例)-DSL工程文件(可直接导入)Dify+DeepSeek - Excel数据一键可视化(创建步骤案例)-Markdown示例文件选中按Del:添加text字段输入:代码解释为执行代码节点添加直接回复节点创建节点节点测试 (无效)测试(Exce原创 2025-03-05 17:42:35 · 5831 阅读 · 5 评论 -
Dify Rag部署并集成在线Deepseek教程(Windows、部署Rag、安装Rag安装、安装Dify安装、安装ollama安装)
windows上直接用键盘鼠标手动操作就行。11434是ollama默认监听端口。原创 2025-03-03 17:48:23 · 1131 阅读 · 0 评论 -
Agent与Workflow的区别(融合应用:Agentic Workflow)
定义:具备感知、决策、执行能力的智能体,强调自主性与环境交互。技术特性动态推理:基于环境变化实时调整策略(如自动驾驶中避障决策)。多模态交互:通过自然语言处理(NLP)与用户交互(如虚拟助手)。目标驱动:面向开放任务,需长期规划(如游戏 AI 的路径搜索)。示例智能客服 Agent 通过分析用户历史对话记录,动态生成个性化回复,而非依赖固定模板。维度AgentWorkflow核心能力动态决策、环境交互流程编排、规则执行适用场景开放任务、不确定性高标准化流程、确定性高技术复杂度。原创 2025-03-03 14:52:57 · 902 阅读 · 0 评论 -
RAG检索增强生成(Retrieval-Augmented Generation)介绍(双模态架构:检索子系统、生成子系统)实现知识获取与内容生成的协同
集成LLM的推理能力与检索结果的上下文敏感性(如GPT-4的in-context learning机制)检索增强生成(Retrieval-Augmented Generation, RAG)通过构建。百度智能云提出RAG+Fine-tuning混合架构,在智能客服场景实现97.3%的准确率(基于向量化表征建立动态知识图谱(示例:使用BERT-Whitening优化句向量分布):腾讯云智能客服系统采用三级分层检索架构,实现平均响应时间<800ms(:突破传统LLM的静态知识边界,实现动态知识注入(参考。原创 2025-03-03 13:28:45 · 967 阅读 · 0 评论 -
LLaMA(Meta开源的AI模型)与Ollama(本地运行和管理大模型的工具)简介(注意这俩虽然名字相似但没有直接联系)
定位不同。原创 2025-02-28 15:39:48 · 1098 阅读 · 0 评论 -
Deepseek api接口调用(deepseek接口)(笔记3)——API 指南(对话前缀续写Beta、FIM 补全Beta、JSON Output、Function Calling、提示库)
在这个例子中,我们给出了计算斐波那契数列函数的开头和结尾,来让模型补全中间的内容。这里以获取用户当前位置的天气信息为例,展示了使用 Function Calling 的完整 Python 代码。在很多场景下,用户需要让模型严格按照 JSON 格式来输出,以实现输出的结构化,便于后续逻辑进行解析。中,用户可以提供前缀和后缀(可选),模型来补全中间的内容。DeepSeek 提供了 JSON Output 功能,来确保模型输出合法的 JSON 字符串。在下一轮对话中,之前轮输出的思维链内容不会被拼接到上下文中。原创 2025-02-28 11:46:44 · 1288 阅读 · 0 评论 -
Deepseek Api Function Calling解析(tools、tool_calls)Deepseek函数调用流程图、Python代码示例
根据官方文档和搜索结果,DeepSeek的Function Calling(函数调用)功能允许模型通过调用外部工具来增强其能力。核心原理。原创 2025-02-28 11:05:36 · 3129 阅读 · 0 评论 -
英伟达4090显卡ubuntu服务器部署deepseek大模型步骤(vLLM)(未验证)
通过vLLM部署可获得5-6倍的性能提升。[关键参考文档索引]原创 2025-02-27 18:03:44 · 1548 阅读 · 0 评论 -
Deepseek api接口调用(deepseek接口)(笔记2)——API 文档(调用示例)(Authentication、对话补全Chat、FIM 补全Beta单回合聊天、列出模型、查询余额)
根据输入的上下文,来让模型补全对话内容。原创 2025-02-27 14:43:28 · 402 阅读 · 0 评论 -
Deepseek Api 对话补全(Chat Completion)、补全(Completion)、FIM补全(Fill-in-Middle,Beta)区别
DeepSeek API中的不同接口针对不同场景设计,主要区别如下:messagespromptprefixsuffix具体参数请参考。原创 2025-02-27 14:00:55 · 2047 阅读 · 0 评论 -
Deepseek Api如何联网查询?(Deepseek联网、API联网)
在火山引擎平台创建 DeepSeek-R1 的推理接入点,关联应用后配置联网内容插件。需使用客户端工具 Cherry Studio 完成 API 和密钥的配置。腾讯云与 DeepSeek 合作提供集成服务,支持联网搜索功能。通过接入腾讯云的大模型知识引擎,可实时抓取互联网资讯,提升时效性。原创 2025-02-27 10:39:28 · 2827 阅读 · 0 评论 -
华为MindIE兼容OpenAI接口与兼容vLLM OpenAI接口的区别(华为VLLM)
等技术显著提升推理性能。其核心优势在于优化内存管理与并行计算,适用于自然语言处理(NLP)、图像生成、语音识别等场景。华为MindIE提供的两种兼容接口(兼容OpenAI接口和兼容vLLM OpenAI接口)主要在。Ascend-vLLM已用于Qwen1.5等大模型的NPU推理部署(为华为生态下的AI推理提供了高效、灵活的解决方案。)是一个针对大规模语言模型推理的高效框架,通过。华为针对昇腾NPU推出了。),并通过社区持续演进(原创 2025-02-27 10:06:37 · 1456 阅读 · 0 评论 -
Deepseek api接口调用(deepseek接口)(笔记1)——概览(deepseek实用应用、deepseek api文档、base_url与api_key、测试调用、非流式请求、错误码)
通过指定 model=‘deepseek-reasoner’,即可调用 DeepSeek-R1。出于与 OpenAI 兼容考虑,您也可以将 base_url 设置为 https://api.deepseek.com/v1 来使用,但注意,此处 v1 与模型版本无关。deepseek-chat 模型已全面升级为 DeepSeek-V3,接口不变。通过指定 model=‘deepseek-chat’ 即可调用 DeepSeek-V3。如果 30 分钟后,请求仍未完成,服务器将关闭连接。原创 2025-02-26 15:25:33 · 1604 阅读 · 0 评论 -
昇腾服务器:模型量化、W8A8量化、稀疏量化(量化是什么?为什么要做量化?)(模型权重、模型激活、模型剪枝、压缩模型压缩)Atlas 800I A2、Atlas 300I DUO
为什么要做量化?在实际应用中,尤其是在部署到资源有限的环境(如移动设备、边缘计算设备或特定的服务器硬件)时,模型的大小和计算速度至关重要。量化技术能够在保证模型性能基本不变的情况下,大幅度降低内存占用和计算资源的需求。原创 2025-02-20 10:34:29 · 1432 阅读 · 0 评论 -
Huggingface简介和基础使用指南(抱脸)(NLP公司、Transformers库、Huggingface Hub)
【代码】Huggingface简介和基础使用指南(抱脸)(NLP公司、Transformers库、Huggingface Hub)原创 2025-02-19 14:29:07 · 1872 阅读 · 0 评论 -
Claude四种回答模式Normal、Concise、Explanation、Formal区别
通过这些示例,我们可以看到每种模式如何根据不同的需求和场景来调整回答的风格和深度。选择合适的模式可以确保信息传递的效率和有效性,使交流更加顺畅和有针对性。Explanation模式旨在提供深入的理解。在这种模式下,Claude会提供详细的解释,将复杂的概念分解成更简单的部分。Normal模式是Claude的默认交流方式。这种模式下,Claude会尽可能用最少的词语传达最核心的信息。Formal模式采用更加专业和学术的语气。这种模式下的语言更加复杂,回答结构更加严谨。对于同样的问题:“什么是温室效应?原创 2025-01-23 07:30:00 · 1054 阅读 · 0 评论 -
大模型Scaling Laws简介(大模型缩放定律、大模型尺度律)(模型性能随着模型规模(参数数量)、训练数据量以及计算资源的增加而呈现出可预测的增长规律)幂律(power-law)
例如,GPT系列模型的每一次迭代都在参数数量、训练数据量和计算资源上进行了大幅度的扩展,性能也因此显著提升。缩放定律在大模型的发展过程中扮演了关键角色,通过揭示模型规模、数据量与性能之间的关系,为大规模人工智能模型的设计、优化和资源规划提供了重要的理论支持。然而,随着模型规模的不断扩大,如何应对相关的挑战仍需要持续的研究和创新。这些定律揭示了在特定范围内,扩大模型规模和训练资源如何系统性地提升模型的表现。总之,尺度律是连接不同规模现象的桥梁,帮助我们在多种领域中理解和应用系统在扩展或缩小规模时的变化规律。原创 2025-01-13 06:30:00 · 2453 阅读 · 0 评论 -
《LLM入门教程》大模型教程笔记13:二、搭建基于 ChatGPT 的问答系统——0.概述、第一章 简介
ChatGPT 的出现,使真正的智能问答成为可能。强大的指令理解能力、自然语言生成能力是 LLM 的核心,支持了 LLM 以类人的方式去思考、执行并完成用户任务。基于 ChatGPT API,我们可以快速、便捷地搭建真正的智能问答系统,将“人工智障”真正升格为“人工智能“。对于开发者来说,如何能够基于 ChatGPT 搭建一个完整、全面的问答系统,是极具实战价值与实践意义的。原创 2025-01-10 08:15:00 · 491 阅读 · 0 评论 -
《LLM入门教程》大模型教程笔记12:一、面向开发者的提示工程——8.聊天机器人(构建上下文context、订餐机器人(使用panel库)、创建JSON摘要)
此处我们另外要求模型创建一个 JSON 摘要,方便我们发送给订单系统。因此我们需要在上下文的基础上追加另一个系统消息,作为另一条指示 (instruction)。披萨,包括尺寸配料列表饮料列表辅菜列表,包括尺寸,总价格。此处也可以定义为用户消息,不一定是系统消息。请注意,这里我们使用了一个较低的温度,因为对于这些类型的任务,我们希望输出相对可预测。'''创建上一个食品订单的 json 摘要。原创 2025-01-09 08:15:00 · 985 阅读 · 0 评论 -
《LLM入门教程》大模型教程笔记12:一、面向开发者的提示工程——8.聊天机器人(订餐聊天机器人代码)
LLM入门教程》订餐聊天机器人。(代码不是很优化,仅供演示)原创 2025-01-08 08:45:00 · 1162 阅读 · 0 评论 -
大模型语言模型chatgpt——函数调用消息function message、Function Call Messages(代码示例:通过函数调用获取指定地点和日期的天气信息)gpt-4
用户定义。原创 2025-01-07 07:45:00 · 1175 阅读 · 0 评论 -
大模型语言模型gpt消息类型:系统消息system message、用户消息user message、助手消息assistant message、函数调用消息function message的区别
功能在实际应用中,这些消息类型共同协作,确保对话的顺畅和功能的实现。例如,系统消息设定了助手的基本行为,用户通过用户消息提出需求,助手通过助手消息进行响应,必要时通过函数调用消息与外部系统交互,以提供更全面和动态的服务。系统消息:设定模型的角色和行为规范。用户消息:用户输入的问题、指令或信息。助手消息:模型生成的回应,直接回答用户需求。函数调用消息:模型调用外部函数或API以完成特定任务。理解这些消息类型的区别,有助于更有效地设计和管理与大型语言模型的交互,提高对话的准确性和实用性。原创 2025-01-06 07:30:00 · 1514 阅读 · 0 评论 -
《LLM入门教程》大模型教程笔记11:一、面向开发者的提示工程——7.文本扩展(定制客户邮件、引入温度系数——temperature参数——影响随机性,值越高越随机)
openAI Python库版本:1.52.1。原创 2025-01-03 07:45:00 · 989 阅读 · 0 评论 -
《LLM入门教程》大模型教程笔记10:一、面向开发者的提示工程——6.文本转换(文本翻译、预期与写作风格调整、拼写与语法纠正)(re去除英文文本多余空格、Redlines文本对比)
openAI Python库版本:1.52.1。原创 2025-01-02 08:15:00 · 1496 阅读 · 0 评论 -
指令微调(Instruction Fine-Tuning)与微调FineTuning的区别(Instruction Fine Tuning)
与传统的微调(Fine-Tuning)侧重于特定任务或领域不同,指令微调专注于提升模型对各种自然语言指令的响应效果,使其在更广泛的应用场景中表现得更加准确和可靠。指令微调是一种有效的方法,通过针对性的训练,使预训练语言模型在理解和执行用户指令方面表现得更加出色。随着指令微调技术的不断发展,未来的语言模型将在更多领域展现出更强大的能力,为用户提供更加精准和高效的服务。指令微调是一种专门的微调技术,通过在大量包含指令和相应响应的数据集上训练模型,使其能够更好地理解和执行用户的指令。原创 2025-01-02 08:30:00 · 1229 阅读 · 0 评论 -
Fine-tuning是什么?(微调)(将通用的预训练模型转化为适用于特定任务和领域的专用模型)FineTuning、Fine Tuning
Fine-tuning通过在这些特定领域的数据上进一步训练模型,使其能够更好地理解和处理相关的专业术语和任务需求。它指的是在一个已经经过大量数据预训练的基础模型(如GPT-4)上,进一步使用特定任务或特定领域的数据进行训练,以优化模型在该特定任务或领域上的表现。Fine-tuning是一种强大的技术手段,能够将通用的预训练模型转化为适用于特定任务和领域的专用模型。相比从头训练一个新模型,Fine-tuning利用已有的预训练模型,可以大幅减少训练时间和计算资源的消耗。收集并整理与特定任务相关的数据。原创 2025-01-01 07:45:00 · 1306 阅读 · 0 评论 -
《LLM入门教程》大模型教程笔记9:一、面向开发者的提示工程——5.推断(情感推断、商品信息提取、推断讨论主题、为特定主题制作新闻提醒)
openAI Python库版本:1.52.1。原创 2025-01-01 07:00:00 · 738 阅读 · 0 评论 -
《LLM入门教程》大模型教程笔记8:一、面向开发者的提示工程——4.文本概括(单一文本概括Summarize、关键信息提取Extract、利用循环同时概括多条文本)
openAI Python库版本:1.52.1。原创 2024-12-31 08:15:00 · 1761 阅读 · 0 评论 -
《LLM入门教程》大模型教程笔记7:一、面向开发者的提示工程——3. 迭代优化(初始提示、解决生成文本太长、处理抓错文本细节、添加表格描述)
在开发大语言模型应用时,很难通过第一次尝试就得到完美适用的 Prompt。但关键是要有一个良好的迭代优化过程,以不断改进 Prompt。相比训练机器学习模型,Prompt 的一次成功率可能更高,但仍需要通过多次迭代找到最适合应用的形式。本章以产品说明书生成营销文案为例,展示 Prompt 迭代优化的思路。这与吴恩达在机器学习课程中演示的机器学习模型开发流程相似:有了想法后,编写代码、获取数据、训练模型、查看结果。通过分析错误找出适用领域,调整方案后再次训练。原创 2024-12-30 07:15:00 · 1043 阅读 · 0 评论 -
为什么“分词器在字符统计方面不具备完美精度”?Tokenizer、tokens词元(与python len()对比)BPE、WordPiece、预定义词汇表、子词拆分、未知词处理
分词器依赖于预定义的词汇表来进行分词。如果某些字符组合不在词汇表中,分词器可能会将其拆分成更小的单元或使用特殊标记(如。原创 2024-12-30 05:00:00 · 757 阅读 · 0 评论 -
《LLM入门教程》大模型教程笔记6:一、面向开发者的提示工程——2. 提示原则——原则三:局限性(虚假知识:大模型幻觉Hallucination、合适Prompt设计减少大模型幻觉,提供真实可靠信息)
openAI Python库版本:1.52.1。原创 2024-12-28 08:00:00 · 643 阅读 · 0 评论 -
《LLM入门教程》大模型教程笔记5:一、面向开发者的提示工程——2. 提示原则——原则二:给模型时间去思考(指定完成任务所需的步骤、指定大模型输出格式、指导模型在下结论之前找出一个自己的解法)
openAI Python库版本:1.52.1。原创 2024-12-27 08:00:00 · 1098 阅读 · 0 评论 -
《LLM入门教程》大模型教程笔记4:一、面向开发者的提示工程——2. 提示原则——原则一:编写清晰、具体的指令(使用分隔符防止提示词注入、寻求结构化输出、要求模型检查满足条件、为模型提供少量示例)
openAI Python库版本:1.52.1。原创 2024-12-27 07:45:00 · 1456 阅读 · 0 评论 -
《LLM入门教程》大模型教程笔记3:一、面向开发者的提示工程——1. 简介(基础LLM、指令微调LLM(Instruction Tuned):预训练+微调finetune、fine-tune、RLHF
欢迎来到面向开发者的提示工程部分,本部分内容基于吴恩达老师的《Prompt Engineering for Developer》课程进行编写。《Prompt Engineering for Developer》课程是由吴恩达老师与 OpenAI 技术团队成员老师合作授课,Isa 老师曾开发过受欢迎的 ChatGPT 检索插件,并且在教授 LLM (Large Language Model, 大语言模型)技术在产品中的应用方面做出了很大贡献。原创 2024-12-25 07:00:00 · 1271 阅读 · 0 评论 -
《LLM入门教程》大模型教程笔记2:一、面向开发者的提示工程——0. 概述(Prompt大模型输入、Completion大模型返回输出、Prompt Engineering提示工程)
Prompt,提示,最初是 NLP 研究者为下游任务设计出来的一种任务专属的输入形式或模板,在 ChatGPT 引发大语言模型新时代之后,Prompt 即成为与大模型交互输入的代称。即我们一般将给大模型的输入称为 Prompt,将大模型返回的输出称为 Completion。原创 2024-12-24 11:11:47 · 769 阅读 · 0 评论 -
《LLM入门教程》大模型教程笔记1:环境配置(安装Anaconda安装、获取配置并测试OpenAI API key、find_dotenv()、load_dotenv()、os.getenv())
在你的config.py脚本中,会从当前工作目录开始,逐级向上查找.env文件,直到找到为止。当前工作目录的.env文件最近的父目录中的.env文件根目录这种查找机制确保了环境变量的灵活管理,使得不同的项目或子项目可以拥有各自独立的配置文件。原创 2024-12-23 17:55:48 · 1312 阅读 · 0 评论