
LLM
文章平均质量分 84
JasonLiu1919
微信公众号《小窗幽记机器学习》。却顾所来径,苍苍横翠微。个人微信号:onepieceand
展开
-
推理模型专题 | 开源类O1:Marco-o1技术全面解读
阿里国际数字化商业团队(非Qwen团队)提出Marco-o1,该模型不仅关注数学、物理和编程等具有标准答案的学科领域(这些领域非常适合强化学习),还更加注重开放性解决方案。Marco-o1旨在解答一个问题:"o1模型能否有效地推广到那些缺乏明确标准且难以量化奖励的更广泛领域?Marco-o1采用思维链(CoT)微调、蒙特卡罗树搜索(MCTS)、反思机制和创新的推理动作策略,专门针对复杂的现实问题求解任务进行了优化。基于CoT数据的微调。原创 2025-01-19 14:22:35 · 1176 阅读 · 0 评论 -
万字长文梳理端侧大模型进展(上篇):由AutoGLM类Agent隐私安全有感
大型语言模型(LLMs)的出现彻底改变了自然语言处理(NLP)领域。由于其在边缘设备上的低延迟、数据本地化和个性化用户体验的优势,越来越多的研究关注在资源受限环境中部署LLMs的挑战与解决方案。本文综述了设备端语言模型的发展,包括高效架构设计、模型压缩技术及硬件加速策略,并通过案例研究展示其实际应用及潜在优势。原创 2024-12-07 15:27:06 · 1174 阅读 · 0 评论 -
全面深入解读Movie Gen技术原理5部曲:4-精准视频编辑
随着视频内容的普及,对易用、可控且精确的视频编辑工具的需求日益增长。文本引导的视频编辑模型成为热点研究方向,旨在让用户通过自然语言简单快速地编辑视频。然而,受限于有监督视频编辑数据的稀缺,高性能模型的开发面临挑战。本节介绍 Movie Gen Edit 模型及其无监督训练方法。Movie Gen Edit 的训练基于两个假设:显式训练模型进行视频编辑可显著提升性能。全面控制输入视频需要处理整个视频,而非仅处理有限特征。收集大规模视频编辑监督数据困难,导致训练-测试场景差异。原创 2024-12-07 15:17:37 · 1015 阅读 · 0 评论 -
全面深入解读Movie Gen技术原理(5部曲):个性化视频生成(3)
本文介绍Movie Gen如何探讨了个性化视频生成这一重要研究领域。Movie Gen的研究员提出了一种新颖的模型架构,通过将个性化信息整合到视频生成过程中,实现了最先进的效果。以下将介绍模型结构、训练方法、评估标准以及定量结果。这项研究不仅在技术上取得了突破,还具有广泛的实际应用前景,为个性化高质量视频生成开辟了新的可能性。后续将进一步解读Movie Gen的视频精准编辑和声音生成。小窗幽记机器学习记录机器学习过程中的点点滴滴和坑坑洼洼公众号Movie Gen在个性化视频生成领域取得了显著进展。原创 2024-11-09 18:56:03 · 1072 阅读 · 0 评论 -
万字长文深度解读Movie Gen技术原理(5部曲):图像&视频联合生成模型 (2)
今天这篇长文详细介绍Movie Gen中图像和视频的联合生成技术。主要内容包括:时间自编码器(TAE)的设计与优化、基于流匹配的训练目标、联合生成的骨干网络架构、文本嵌入和视觉-文本生成方法、空间上采样技术、模型扩展和训练效率优化等。此外,还详细介绍了预训练数据的准备过程,包括视觉筛选、运动筛选、内容筛选和字幕生成等步骤。整体上,全面深入地解析了Movie Gen的核心技术原理。后文将从个性化视频生成、精准视频编辑、音频生成这3个方面分别深度解读。感兴趣的小伙们可以留意本微信公众号。小窗幽记机器学习。原创 2024-11-09 18:27:13 · 1407 阅读 · 0 评论 -
全面深入解读Movie Gen技术原理(5部曲):概述 (1)
研究发现,通过扩大训练数据、计算资源和模型参数,使用Flow Matching训练的Transformer模型可以生成高质量的视频或音频。Meta据此打造Movie Gen的2种基础模型:Movie GenVideo和Movie GenAudio。Movie Gen Video和Movie Gen Audio模型参数量分别是300亿和130亿。原创 2024-10-07 16:55:32 · 2307 阅读 · 0 评论 -
LLM端侧部署系列 | PowerInfer-2助力AI手机端侧部署47B大模型 (论文解读)
为啥大模型要做端侧部署?除了常说的端侧数据安全隐私,其实还有系统上的原因。PowerInfer-2是一个专为智能手机如何高速推理大型语言模型(LLM)而设计的框架,特别适用于模型大小超过设备内存容量的场景。PowerInfer-2的关键思路是将传统的矩阵计算分解为细粒度的神经元集群计算。具体而言,在PowerInfer-2中设计多态神经元引擎,能够根据LLM推理的不同阶段自适应采用不同的计算策略。此外,引入了分段神经元缓存(neuron caching) 和细粒度神经元集群级流水线。原创 2024-10-05 14:13:42 · 1965 阅读 · 0 评论 -
LLM端侧部署系列 | 手机上运行47B大模型?上交推理框架PowerInfer-2助力AI手机端侧部署
近日,上海交大为大模型能够在智能手机上部署提出PowerInfer-2,该框架是专为智能手机设计且高度优化的推理框架。目前PowerInfer-2支持的最大模型是Mixtral 47B MoE模型,在inference的时候每秒可生成11.68个token,这比其他最先进的框架快22倍。即使是使用7B模型,PowerInfer-2只需将50%的FFN权重放置在手机上,在7B这个模型参数上,仍然是目前最快的推理框架!更多大模型相关,如模型解读、模型微调、模型部署、推理加速。原创 2024-10-04 12:13:56 · 1413 阅读 · 0 评论 -
论文推荐 |【Agent】自动化Agent设计系统
• 引入了自动化代理系统设计(ADAS),这是一个新的研究领域,用于自动创建强大的代理系统设计。- 在领域迁移后,GSM-Hard任务的准确率提高了13.2%• 以代码形式表示代理,使元代理能够编程出越来越优秀的代理。- 在领域迁移后,GSM8K任务的准确率提高了25.9%自动化代理设计在性能和通用性方面显著超越了手动方法。• 在数学任务(MGSM)上将准确率提高了14.4%- 基于不断演进的先前发现档案,迭代生成新的代理。• 在多个领域超越了最先进的手动设计代理。• 理论上能够发现任何可能的代理系统。原创 2024-10-03 22:02:50 · 602 阅读 · 0 评论 -
全面解读OpenAI o1三部曲:中篇-原理
小伙伴们好,我是微信公众号《小窗幽记机器学习》的小编:卖海参的小女孩。OpenAI 官方在技术博客《Learning to Reason with LLMs》中对 o1 系列模型做了进一步的技术介绍。虽然不是很详细,但是聊胜于无。小窗幽记机器学习记录机器学习过程中的点点滴滴和坑坑洼洼公众号在 OpenAI 的测试中,该系列后续更新的模型在物理、化学和生物学这些具有挑战性的基准任务上的表现接近博士生水准。OpenAI 还发现它在数学和编码方面表现出色。原创 2024-09-30 20:10:53 · 1572 阅读 · 0 评论 -
开源实战分享 | 新书:《大型语言模型实战手册》随书代码分享
大型语言模型实战手册》(英文版)目前电子版在亚马逊有售,纸质版预计在2024年10月15日开售。该书通过超过275张定制插图,深入探索大型语言模型的世界,为Python开发者提供使用大型语言模型所需的实用工具和概念。如果对于插图没有特别执念的同学,可以直接在微信公众号《小窗幽记机器学习》上回复"大模型实战"获取随书代码(有完整的notebook)!纸上得来终觉浅,绝知此事要躬行!原创 2024-09-30 20:02:41 · 512 阅读 · 0 评论 -
全面解读OpenAI o1三部曲:上篇-概述
小伙伴们好,我是微信公众号《小窗幽记机器学习》的小编:卖海参的小女孩。前几天(9月12日),OpenAI发布了o1系列模型。该系列的模型旨在让模型。这类似诺贝尔经济学奖得主提到的"慢思考"。这种主打"慢思考"的模型与之前的模型相比,能够在科学、编程和数学领域中完成复杂任务和解决更难的问题。简而言之,"慢思考"模型在逻辑推理等理工科任务上,刷到一个新的高度!真的遥遥领先!堪称地表最强理科王者!记录机器学习过程中的点点滴滴和坑坑洼洼公众号。原创 2024-09-29 21:10:59 · 1129 阅读 · 0 评论 -
端侧多模态 | 不到10亿参数的端侧Agent竟媲美GPT-4V?AI手机不远了!
多模态人工智能Agent(智能体)能够处理和学习各种数据类型,包括自然语言、图像和音频。虽然将视觉数据融入大型语言模型已有进展,但如何将图像数据转化为Agent可操作结果仍具挑战。这篇文章介绍一种新型多模态模型,结合了功能性标记(function token)的概念,专为Agent应用设计。为实现边缘设备部署,模型参数被优化至10亿以下。与GPT-4类似,该模型支持英语和中文处理。实践证明,该模型可在多种边缘设备(包括像树莓派这样资源受限设备)上高效运行。演示视频如下:AI科技爱科学。原创 2024-09-29 21:08:35 · 1463 阅读 · 0 评论 -
LLM Agent系列 | 端侧Agent路由器,合纵连横AI江湖,破局端侧大模型之困!
语言模型在各种应用中都表现出色,但最先进的模型通常是专有或私有的。例如,OpenAI 的GPT-4和Anthropic 的各种模型,这些模型使用价格昂贵且能耗高。相比之下,开源社区已经公布极具竞争力的模型,如Llama3。此外,特定领域的小语言模型(如法律、医疗或金融任务的模型)在某些方面优于其专有的同行对手。本文介绍了一种新方法,使用函数token整合多个开源模型(这些开源模型每个都针对特定任务进行了优化),使得可以根据用户query自动分配最合适的模型。原创 2024-09-27 21:02:34 · 1486 阅读 · 0 评论 -
RAG实战 | 基于LlamaIndex的文档问答系统
本文主要介绍如何使用LlamaIndex实现RAG系统,并以文档问答为实例,介绍如何使用LlamaIndex实现RAG。借助LlamaIndex实现的RAG系统,可以进一步实现本地化的知识库系统的构建。#RAG #LlamaIndex #问答系统 #知识库问答 #RAG实战 #AI入门 #搜索系统。原创 2024-09-27 20:59:28 · 835 阅读 · 0 评论 -
端侧大模型系列 | 斯坦福手机端侧Agent大模型,为Android API而生!
语言模型在自动工作流中的有效性得到了验证,尤其是在函数调用方面。尽管大规模语言模型在云环境中表现优异,但隐私和成本问题仍令人担忧。当前端侧模型在延迟和准确性上面临挑战,研究人员提出了名为Octopus的模型,其2B参数版本在准确性和延迟上超越了GPT-4,并将上下文长度减少了95%。与Llama-7B相比,Octopus的延迟提高了35倍,适合在各种边缘设备上部署。论文地址:模型下载地址:大型语言模型在函数调用方面的能力显著促进了AI Agent的发展,如MultiOn、Adept AI等已进入市场。原创 2024-09-16 18:42:43 · 2486 阅读 · 0 评论 -
LLM系列 | 38:解读阿里开源语音多模态模型Qwen2-Audio
Qwen2-Audio是一个大规模音频-语言模型,可以接受各种音频信号输入,并根据语音指令执行音频分析或直接生成文本响应。与之前的模型(Qwen-Audio)相比,Qwen2-Audio在以下几个方面做了改进:简化预训练过程: 使用自然语言提示替代复杂的层级标签,扩大了训练数据规模。增强指令遵循能力: 通过监督微调和直接偏好优化(DPO),使模型输出更符合人类偏好。实现两种音频交互模式: 语音聊天模式和音频分析模式,无需系统提示即可智能切换。原创 2024-09-08 10:54:07 · 1835 阅读 · 0 评论 -
Google最新开源大语言模型:Gemma 2介绍及其微调(上篇)
2024年6月27日,Google DeepMind发布了Gemma 2,这是Gemma系列轻量级开放语言模型的最新成员。Gemma 2在架构和训练方法上都有重大创新,在多项基准测试中取得了显著进步,甚至可以与参数规模大2-3倍的模型相媲美。本文将对Gemma 2技术报告的主要内容进行解读,包括模型架构、预训练和后训练方法、性能评估等方面。原创 2024-07-21 16:39:13 · 3376 阅读 · 0 评论 -
基于AutoGen的多Agent AI系统实践
AutoGen是一个由Microsoft开源的框架,专为构建和优化大型语言模型(LLM)工作流程而设计。它提供了多Agent会话框架、应用程序构建工具以及推理性能优化的支持。基于AutoGen框架使得能够方便地使用多Agent开发LLM应用程序。以下将介绍如何基于AutoGen构建和定制多Agent系统,使Agent能够扮演不同的角色。通过使用AutoGen框架,不同Agent可以协作完成复杂任务。原创 2024-07-14 19:31:11 · 3344 阅读 · 0 评论 -
LLM端侧部署系列 | 如何将阿里千问大模型Qwen部署到手机上?环境安装及其配置(上篇)
引言下载待部署模型安装minconda安装tvm和mlc-llm安装 JDK安装 Android SDK下载mlc-llm仓库设置环境变量安装Rust。原创 2024-06-23 14:49:59 · 2191 阅读 · 3 评论 -
LLM端侧部署系列 | 如何将阿里千问大模型Qwen部署到手机上?实战演示(下篇)
为将Qwen大模型部署到手机,实现断网下Qwen模型正常使用,本文选择MLC-LLM框架。MLC LLM(机器学习编译大型语言模型,Machine Learning Compilation for Large Language Models) 是一种高性能的通用部署解决方案,将任何语言模型本地化部署在各种硬件后端和本机应用程序上,并为每个人提供一个高效的框架,以进一步优化自己模型性能。该项目的使命是使每个人都能够使用ML编译技术在各种设备上本机开发、优化和部署AI模型。原创 2024-04-04 16:39:06 · 5195 阅读 · 7 评论 -
LLM系列 | 28:实测Claude 3有感,OpenAI员工为啥没有竞业协议?
OpenAI的最强竞争对手Anthropic于3月4日发布了新一代AI 大模型系列:Claude 3。Claude 3 包含三个模型,按能力由弱到强排列分别是 Claude 3 Haiku(中杯)、Claude 3 Sonnet(大杯) 和 Claude 3 Opus(超大杯)。这些模型分别适用于不同场景,Opus能力最强,Sonnet平衡速度和能力,Haiku最快,适合互动型AI应用场景。原创 2024-03-10 23:27:55 · 1312 阅读 · 0 评论 -
模型推理加速系列 | 08:TensorRT-LLM助力LLM高性能推理
其实小编之前有介绍过关于如何用TensorRT提升模型推理速度,感兴趣的小伙伴可以回顾下:TensorRT-LLM 是一个开源库,用于定义、优化和执行大型语言模型 (LLM) 在生产环境的推理。它在开源 Python API 中保留了 FasterTransformer 的核心功能,并与 TensorRT 的深度学习编译器配合使用,以快速支持新模型和定制模型。原创 2023-12-23 11:10:50 · 1459 阅读 · 0 评论 -
LLM系列 | 27 : 天工大模型Skywork解读及揭露刷榜内幕引发的思考
Skywork是由昆仑万维集团·天工团队开发的一系列大型模型,计划开源的模型有Skywork-13B-Base模型(目前确实已开源)、Skywork-13B-Chat模型(暂时2023年11月12日还没有开源,可能在走备案和流程审批?)、Skywork-13B-Math模型(暂无)和Skywork-13B-MM模型(也暂无)。Skywork-13B是使用超过3.2万亿个中英文Token进行预训练得到的130亿参数双语基础语言模型系列(即所谓的基座模型)。原创 2023-11-15 23:00:58 · 2335 阅读 · 0 评论 -
OpenAI开发者大会之后,当何去何从?
此次发布会简单总结如下。1. 发布GPT-4 Turbo更长。支持128K上下文输入,标准GPT-4是8K版本,之前升级出了32K版本更可控。JSON格式输出,增加seed控制模型回复可复现更新的知识。GPT-4 Trubo的知识更新至2023年4月开放多模态能力,整合了文生图模型DALL·E 3和声音合成模型(TTS)以及语音识别模型Whisper V3等开放 Fine-Tuning功能,支持在GPT-4基础上微调进行模型定制输出速度更快,每分钟输出翻倍围绕ChatGPT构建应用生态。原创 2023-11-08 23:52:57 · 605 阅读 · 1 评论 -
LLM系列 | 26:阿里千问Qwen模型解读、本地部署
Qwen 是一个全能的语言模型系列,包含各种参数量的模型,如 Qwen(基础预训练语言模型,即基座模型)和 Qwen-Chat(聊天模型,该模型采用人类对齐技术进行微调)。基座模型在众多下游任务中始终表现出卓越的性能,而聊天模型,尤其是使用人类反馈强化学习(RLHF)训练的模型,具有很强的竞争力。聊天模型Qwen-Chat拥有先进的工具使用和规划能力,可用于创建agent应用程序。即使在使用代码解释器等复杂任务上,Qwen-Chat与更大的模型相比也能表现出极具竞争力的性能。原创 2023-11-04 17:05:42 · 23725 阅读 · 0 评论 -
LLM系列 | 23:多模态大模型:浦语·灵笔InternLM-XComposer解读、实战和思考
浦语·灵笔模型是基于书生·浦语大语言模型研发的视觉-语言大模型图文交错创作: 浦语·灵笔可以为用户打造图文并貌的文章,具体是提供文章生成和配图选择的功能。理解用户指令,创作符合要求的文章。智能分析文章,自动规划插图的理想位置,确定图像内容需求。基于以文搜图服务,从图库中检索出对应图片。图文理解: 浦语·灵笔设计了高效的训练策略,为模型注入海量的多模态概念和知识数据,赋予其强大的图文理解和对话能力。从公布的技术报告可以获悉InternLM-XComposer在公开评测数据集上的战绩。原创 2023-10-27 23:19:18 · 2279 阅读 · 1 评论 -
LLM系列 | 22 : Code Llama实战(下篇):本地部署、量化及GPT-4对比
官方发布了3类Code Llama模型,每类都有三种模型尺寸:Code Llama:Base模型(即常说的基座模型),为通用的代码生成和理解而设计。Code Llama - Python:专门为Python而设计。Code Llama - Instruct:遵循指令,更加安全,可以作为代码助手。原创 2023-10-27 23:07:13 · 4527 阅读 · 1 评论 -
LLM系列 | 20 : Llama2 实战(下篇)-中文语料微调(附完整代码)
上篇主要介绍Llama2的基本情况和基于官方模型实测Llama2在中英上的效果,包括。今天这篇小作文作为Llama2的下篇,主要介绍如何用中文语料对Llama 2的基座模型(7B版)进行微调并实测微调后模型的效果。本文实验完整代码请找小编索取。后续将实战Code Llama感兴趣的小伙伴可以关注下!原创 2023-09-16 21:34:30 · 4839 阅读 · 0 评论 -
LLM系列 | 19 : Llama 2实战(上篇)-本地部署(附代码)
小伙伴们好,我是《小窗幽记机器学习》的小编:卖热干面的小女孩。紧接前文:万字长文细说ChatGPT的前世今生,后续会尝试以理论+实践的方式逐步对主流的各大LLM进行实测和汉化。今天这篇关于Llama2的小作文其实比较长,所以分为上下两篇,上篇主要介绍和上的效果,包括。本文作为上篇,整个实验过程使用的模型是,包括和。下篇则主要介绍如何用中文语料对Llama 2的基座模型进行微调并实测微调后模型的效果。感兴趣的小伙伴,可以关注下!本文实验完整代码获取请前往《小窗幽记机器学习》找小编索取。原创 2023-08-24 23:46:30 · 8507 阅读 · 4 评论 -
万字长文细说ChatGPT的前世今生
本文主要介绍GPT模型的训练方法,包括预训练、监督微调、奖励建模和强化学习这四个阶段。不同微调模型具备不同特点,基础模型更富创造力,而强化学习微调后可获得最高质量的回复。在使用GPT的使用,可以利用提示工程技巧,比如提供充足上下文、引导模型步步思考等。当前模型依然存在各种局限,人类应谨慎而有效地将其应用于低风险的协作场景中,不能轻视其潜在风险。总体而言,本文系统地介绍了GPT的训练和使用,包括GPT助手模型的全流程及各种关键技巧。原创 2023-08-09 23:47:11 · 450 阅读 · 0 评论 -
如何优雅地下载huggingface上模型,以llama2模型下载为例
由于llama2模型的下载需要经过官方的授权,这就需要登陆hugging face的,对模型页面进行申请。等待审核通过后,才能够下载。如果在单纯用 git lfs 的方式进行下载,需要输入账号和密码。为了更快速地进行下载,既能够设置密码、也能够设置代理,采用脚本的方式会更加合适,不会因为随便改动代理而引发其他问题。原创 2023-07-25 19:57:37 · 17810 阅读 · 8 评论 -
LLM系列| 17:Claude2剑指ChatGPT,长文档问答,真香!
Claude 2刷新现有商业产品的输入上限,长达100k个token。同时支持多种如PDF、TXT等文档格式作为输入,在文档问答、文档大纲和摘要生成方面效果显著。文档问答效果是真不错,忍不住安利!但在面对稍微复杂表格(比如行列数据共用)的问答时仍然力不从心,有待优化。此外,对于编程题目的解答,Claude 2也存在较大提升空间。原创 2023-07-15 16:09:39 · 290 阅读 · 0 评论 -
LLM 系列 | 15:如何用LangChain做长文档问答?
西塞山前白鹭飞,桃花流水鳜鱼肥。小伙伴们好,我是微信公众号《》的小编:卖酱猪蹄的小女孩。。前文ChatGPT Prompt 工程和应用系列文章可以如下自取,预告一下该系列还有2篇小作文,后续补下。本文作为的开篇,以为例介绍如何使用LangChain。上添加小编微信。原创 2023-06-29 23:25:11 · 1004 阅读 · 0 评论 -
LLM系列 | 14: 构建端到端智能客服
漠漠水田飞白鹭,阴阴夏木啭黄鹂。小伙伴们好,我是微信公众号《》的小编:卖海蛎煎的小男孩。今天这篇小作文是吴恩达《Building Systems with the ChatGPT API》课程的第3篇笔记。本文将综合之前多篇文章搭建一个带评估功能的。完整代码请在微信公众号:「小窗幽记机器学习」上添加小编微信。原创 2023-06-29 23:22:49 · 569 阅读 · 0 评论 -
LLM系列 | 13: 如何链接多个Prompt处理复杂任务?以智能客服为例
本文以更加复杂的智能客服场景为例,通过构建链接多个Prompt实现复杂的客服问答服务。在实际工作过程,对于复杂任务需要将其拆分为一系列简单的子任务来链接多个Prompt。这种链接多个Prompt的方式与此前介绍的思维链不同。思维链Prompt是使用一个长而复杂的指令,实质上只有一条Prompt,对任务的处理是一次完成。而链接多个Prompt是将一个任务拆解成多个模块,每个子任务单独用一个prompt完成。面对复杂的任务,通过分解成多个子任务,链接多个Prompt的方式,使其更易于管理,并减少错误的可能性。原创 2023-06-29 23:15:39 · 795 阅读 · 0 评论 -
LLM系列 | 12: 实测OpenAI函数调用功能:以数据库问答为例
小伙伴们好,我是微信公众号《小窗幽记机器学习》的小编:划龙舟的小男孩。注意,在定义functions规范时要将数据库的schema插入到函数规范中,这对模型来说是很重要的。通过上述示例可以确切感受openai函数调用功能的强大,这也为开发者构建更多稳健服务提供更强的保障。中,生成的SQL可能存在较高风险。因为模型在生成正确的 SQL 这方面暂不完全可靠,小伙伴们评估。本文将介绍如何将模型生成的结果输入到自定义的函数中,并利用该功能实现。以下直接介绍示例数据库相关细节。黑云翻墨未遮山,白雨跳珠乱入船。原创 2023-06-29 23:13:02 · 668 阅读 · 0 评论 -
LLM系列 | 11: LangChain危矣?亲测ChatGPT函数调用功能:以天气问答为例
该功能一定程度上对LangChain构成威胁,新增的Function calling功能将使得LangChain里将近30%的代码可以删掉,且各个应用服务结果的稳定性将大大提升。当然,LangChain也迅速做出应对,在OpenAI官推发布更新的10分钟之内,LangChain立马宣布"已经在做兼容工作了",并且在不到一个小时就发布了新版本以支持OpenAI的这一新功能。这篇小作文以天气咨询为例,说明如何在使用ChatGPT过程中融合自定义函数的使用,从而为用户提供更多样的服务,类似插件。原创 2023-06-22 10:05:54 · 1740 阅读 · 0 评论 -
LLM系列 |10: 如何编写思维链Prompt?以智能客服为例
今天这篇小作文是吴恩达《Building Systems with the ChatGPT API》课程的第1篇笔记,继续以智能客服场景为例,介绍如何编写ChatGPT的思维链Prompt从而为用户提供智能客服服务。在智能客服场景中,经常会有用户询问对比各种产品的价格,如何让智能客服提供准确的答案?这就需要在构建Prompt过程中引入思维链的编写方式。小伙伴们好,我是微信公众号《小窗幽记机器学习》的小编:卖红枣粽的小女孩。黄梅时节家家雨,青草池塘处处蛙。更多、更新文章欢迎关注。原创 2023-06-22 10:02:27 · 791 阅读 · 0 评论 -
LLM系列 | 09: 基于ChatGPT构建智能客服系统(query分类&安全审核&防注入)
这3点都是在构建具体应用过程必须要考虑的。通过OpenAI的内容审核接口可以检查用户输入的内容是否符合OpenAI的使用政策,包括识别是否存在不良信息、仇恨言论、暴力内容、色情内容等,并对其进行过滤或标记。小伙伴们好,我是卖热干面的小女孩。主要是配置 ChatGPT 的api key和封装调用ChatGPT api的函数。从上述结果可以看出,使用分隔符可以预防Prompt注入。从返回结果可以看出,ChatGPT对各个类别进行鉴别并返回对应的得分。,从回复的结果看,确实是用英文回复,而不是中文。原创 2023-06-18 16:50:33 · 770 阅读 · 0 评论