大模型应用开发
文章平均质量分 64
大模型应用开发,罗列OpenAi、通义千问、文心一言、chatGLM-6B从入门到精通的开发流程
forest_long
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
【大模型应用开发】学习导读列表--建议收藏
开发大模型相关应用,其技术核心点虽然在大语言模型上,但一般通过调用 API 或开源模型来实现核心的理解与生成,通过 Prompt Enginnering 来实现大语言模型的控制,因此,虽然大模型是深度学习领域的集大成之作,大模型开发却更多是一个工程问题。在大模型开发中,我们一般不会去大幅度改动模型,而是将大模型作为一个调用工具,通过 Prompt Engineering、数据工程、业务逻辑分解等手段来充分发挥大模型能力,适配应用任务,而不会将精力聚焦在优化模型本身上。原创 2024-02-27 08:06:09 · 584 阅读 · 0 评论
-
【大模型应用开发-实战】(二十一)Dify使用-使用工作流简单示例(五)
本文介绍了在本地部署大模型的完整流程。首先需要做好基础环境准备,然后通过ollama工具在本地部署大模型,最后通过dify平台接入ollama部署的模型。整个过程包括环境配置、模型部署和平台接入三个关键步骤,为开发者提供了一种便捷的本地大模型部署方案。该方案既保持了模型的本地化运行,又能通过dify平台实现更便捷的调用和管理。原创 2025-08-10 00:30:00 · 474 阅读 · 0 评论 -
【大模型应用开发-实战】(二十)Dify使用-接入stability生成精美图片(四)
本文介绍了Stability AI API的配置使用流程:1)前期准备工作;2)注册获取API密钥;3)安装Dify插件并进行配置;4)完成测试使用。整个操作流程清晰简明,帮助用户快速完成从环境准备到实际应用的完整部署过程,重点突出了插件安装配置等关键步骤,为开发者提供了完整的集成指导方案。原创 2025-08-10 00:15:00 · 757 阅读 · 0 评论 -
【大模型应用开发-实战】(十九)Dify使用-接入ollama部署的本地大模型(三)
本文介绍了在本地部署大模型的完整流程。首先需要做好基础环境准备,然后通过ollama工具在本地部署大模型,最后通过dify平台接入ollama部署的模型。整个过程包括环境配置、模型部署和平台接入三个关键步骤,为开发者提供了一种便捷的本地大模型部署方案。该方案既保持了模型的本地化运行,又能通过dify平台实现更便捷的调用和管理。原创 2025-08-09 13:51:28 · 235 阅读 · 0 评论 -
【大模型应用开发-实战】(十八)Dify使用-接入智普、千问、deepseek等官方大模型(二)
本文介绍了四种大模型接入方法:准备工作(环境配置、API申请等)、智普清言(中文对话模型)、通义千问(阿里云智能服务)和DeepSeek(高性能AI平台)。每种接入方式均需完成账号注册、API密钥获取及SDK集成等步骤,适用于不同应用场景的开发需求。原创 2025-08-09 13:49:44 · 540 阅读 · 0 评论 -
【大模型应用开发-实战】(十六)手把手入门QWen官方API调用-使用function call调用(五)
摘要:本文介绍了调用QWen大模型API的完整流程,包括准备工作、依赖安装和环境配置。核心代码展示了如何通过OpenAI接口调用QWen模型,并实现工具函数调用的多轮对话功能。文中提供了两个工具函数示例:获取当前时间和查询天气,演示了模型如何根据用户输入动态选择工具并返回结果。测试运行部分展示了完整的交互流程,包括工具调用和多轮对话处理。该实现适用于需要结合外部工具的大模型应用场景。原创 2025-08-08 00:30:00 · 527 阅读 · 0 评论 -
【大模型应用开发-实战】(十五)手把手入门QWen官方API调用-使用langchain调用(四)
本文介绍了使用LangChain调用QWen大模型API的完整流程。首先需安装必要的Python依赖库,包括langchain相关组件和requests等。然后配置.env文件存放API密钥。核心代码展示了两种调用方式:常规调用(get_response_no_flow)和流式调用(get_response_with_sse),后者支持SSE(Server-Sent Events)技术实现实时数据流。代码通过ChatOpenAI类对接阿里云DashScope平台的兼容模式API,可指定qwen-plus等不原创 2025-08-08 00:15:00 · 685 阅读 · 0 评论 -
【大模型应用开发-实战】(十四)手把手入门QWen官方API调用-使用OpenAI调用(三)
本文介绍了如何调用QWen大模型的官方API。首先需要安装openai和python-dotenv依赖包,并配置.env文件存放API密钥。核心代码展示了两种调用方式:常规调用和流式调用,通过OpenAI客户端设置base_url连接阿里云DashScope服务,支持qwen-plus等模型。代码提供了系统角色设定和用户提问示例,流式调用还能获取token使用信息。最后通过主函数可选择执行不同调用方式进行测试。原创 2025-08-07 00:30:00 · 802 阅读 · 0 评论 -
【大模型应用开发-实战】(十三)手把手入门Qwen官方API调用-使用requests、curl调用(二)
本文介绍了两种调用大模型API的方法:curl方式和requests方式。curl方式展示了通过命令行直接调用阿里云QWen API的完整请求格式,包括请求头、授权信息和请求体。requests方式详细说明了Python环境下的实现步骤,包括安装依赖、配置API密钥和核心调用代码,提供了一个完整的可运行示例,支持自定义提示词、模型选择等参数。两种方法都实现了与大模型的交互功能,适用于不同开发场景。原创 2025-08-07 00:15:00 · 697 阅读 · 0 评论 -
【大模型应用开发-实战】(十二)手把手入门QWen官方API调用-准备工作(一)
摘要:本文介绍了使用智谱AI开放平台(DeepSeek)的完整流程,包括准备工作、APIKey申请和充值步骤。首先需访问官网并完成注册登录及实名认证(支持个人或企业认证)。随后在用户中心创建APIKey,记录凭证以便后续调用。最后通过充值链接完成账户充值(最低1元)。流程清晰,适合开发者快速接入平台服务。原创 2025-08-06 15:33:07 · 624 阅读 · 0 评论 -
【大模型应用开发-实战】(十七)Dify使用-安装部署(一)
本文介绍了Dify系统的Docker部署流程。首先需安装Docker环境,然后从GitHub克隆Dify仓库代码。部署时需进入docker目录,复制.env环境配置文件模板,并通过docker-compose启动服务。最后通过localhost访问系统,完成管理员设置并进入控制台界面。整个过程包含环境准备、代码获取、配置修改和容器启动等关键步骤,为快速搭建Dify系统提供了完整指导。原创 2025-08-06 12:39:39 · 736 阅读 · 0 评论 -
【大模型应用开发-实战】(十一)手把手入门DeepSeek官方API调用-实现function call(四)
【代码】【大模型应用开发-实战】(十一)手把手入门DeepSeek官方API调用-实现function call(四)原创 2025-07-01 00:45:00 · 310 阅读 · 0 评论 -
【大模型应用开发-实战】(十)手把手入门DeepSeek官方API调用-使用OpenAI调用(三)
【代码】【大模型应用开发-实战】(十)手把手入门DeepSeek官方API调用-使用OpenAI调用(三)原创 2025-07-01 00:15:00 · 233 阅读 · 0 评论 -
【大模型应用开发-实战】(九)手把手入门DeepSeek官方API调用-使用requests、curl调用(二)
本文介绍了智普清言官方API调用的实现方法。首先需要完成准备工作,然后提供两种调用方式:curl命令行方式和Python requests库方式。每种方法都详细说明了实现步骤,并提供了测试运行的具体操作流程,帮助开发者快速入门API调用。原创 2025-06-30 00:30:00 · 787 阅读 · 0 评论 -
【大模型应用开发-实战】(八)手把手入门DeepSeek官方API调用-准备工作(一)
摘要:本文介绍了获取千问大模型API Key的完整流程。首先需要访问官网并完成账号注册登录,通过个人或企业实名认证。然后在用户中心进入API Keys页面创建新密钥,填写应用信息后即可生成API Key,需妥善保存该密钥作为后续调用的凭证。整个过程包括准备工作、实名认证和API Key申请三个主要步骤。原创 2025-06-30 00:15:00 · 580 阅读 · 0 评论 -
【大模型应用开发-实战】(七)手把手入门智普清言官方API调用-使用langchain agent方式调用(四)
本文介绍了使用LangChain框架结合智普清言API构建童话创作系统的完整方案。主要内容包括:1)环境配置与依赖安装;2)初始化智普GLM-4模型并设置创作参数;3)构建包含故事评估工具的功能模块;4)创建防错提示模板和童话创作Agent;5)配置执行器进行故事生成。系统通过定义评估标准确保故事的教育价值,提供800字左右的奇幻故事创作功能,包含主角设定、反派角色和核心寓意等要素。代码采用模块化设计,具有错误处理机制,可实现稳定运行。测试结果展示了完整的童话故事生成流程。原创 2025-06-29 09:01:32 · 352 阅读 · 0 评论 -
【大模型应用开发-实战】(六)手把手入门智普清言官方API调用-使用langchain调用(三)
本文介绍了使用LangChain框架调用智谱清言GLM-4大模型API生成童话故事的方法。首先需要安装相关依赖库并配置API密钥环境变量。核心代码通过ChatPromptTemplate构建故事生成提示模板,设置模型参数后创建处理链,最终调用invoke方法生成一个包含标题、正文和寓意的200字童话故事。该方法适合为6-12岁儿童创作富有教育意义的奇幻故事,通过调整temperature参数可以控制故事的创造性。运行代码即可获得格式完整的童话故事输出。原创 2025-06-29 01:15:00 · 520 阅读 · 0 评论 -
【大模型应用开发-实战】(五)手把手入门智普清言官方API调用-使用openai、zhipu sdk和requests调用(二)
本文介绍了调用智谱AI API的三种实现方式:1)使用curl命令直接调用接口;2)通过OpenAI库进行同步请求;3)使用zhipuai库支持同步、异步和流式调用。代码示例展示了如何设置API密钥、创建不同类型的请求(如童话故事创作、营销文案生成等),并处理响应结果。文中还包含环境变量加载和模型参数配置说明,为开发者提供了灵活多样的API集成方案。原创 2025-06-28 18:59:19 · 1074 阅读 · 0 评论 -
【大模型应用开发-实战】(四)手把手入门智普清言官方API调用-准备工作(一)
摘要:获取智谱AI API Key的步骤包括:1)访问智谱AI开放平台官网并注册登录;2)完成个人或企业实名认证;3)在用户中心创建API Key,填写应用名称等信息;4)保存生成的API Key作为身份验证凭证。整个过程需在智谱AI开放平台完成,确保后续API调用的顺利进行。(100字)原创 2025-06-28 18:06:45 · 1117 阅读 · 0 评论 -
【大模型应用开发-大模型知识】(五)常用大模型官方智能体和开发入口
主要AI平台入口及资源汇总:通义千问、文心一言、智普清言(含GLM模型官网及API密钥)、腾讯元宝、ChatGPT均提供智能体入口,其中通义千问、智普清言和ChatGPT还设有开源大模型官网入口。智普清言额外提供了详细的API密钥获取路径(示例密钥已模糊处理)。各平台可通过对应网址快速访问核心功能与开发资源。(98字)原创 2025-06-28 17:51:59 · 477 阅读 · 0 评论 -
【大模型应用开发-实战】(四)nvitop: 史上最强GPU性能实时监测工具
相信大家在用NVIDIA-GPU训练网络模型的时候,都会习惯性的在终端nvidia-smi一下吧?最直接的目的是为了查看哪些卡正在使用,哪些卡处在空闲,然后挑选空闲的卡号进行网络训练。咱们作为一名资深的算法工程师,毕竟身兼多职:上要开发AI算法,下要管理服务器,左要带新人,右要PPT汇报上级。对于管理服务器:刚买的新服务器你得装系统吧?得装DriverCudaCudnn吧?原创 2024-04-29 22:14:16 · 2744 阅读 · 0 评论 -
【大模型应用开发-实战】(三)使用Ollama在⾃⼰的电脑上运⾏⼤模型(下)
LangChain 官⽅⽂档有详细介绍如何调⽤本地模型。LangChain 调⽤本地模型。【大模型应用开发-实战】(十)Embedding模型部署-优快云博客。【大模型应用开发-实战】(十)Embedding模型部署-优快云博客。【大模型应用开发-实战】(十)Embedding模型部署-优快云博客。【大模型应用开发-实战】(十)Embedding模型部署-优快云博客。【大模型应用开发-实战】(十)Embedding模型部署-优快云博客。【大模型应用开发-实战】(十)Embedding模型部署-CS原创 2024-04-29 00:44:38 · 432 阅读 · 0 评论 -
【大模型应用开发-大模型知识】(三)免费使用ChatGPT4.0
众所周知,OpenAI并不“open”,特别是在GPT-4发布后,整个OpenAI团队对GPT-4的几乎所有信息都守口如瓶。因为没有高质量的token,这个数据集还包含了许多个epoch。Epoch数量:针对基于文本的数据进行2个epoch的训练,而针对基于代码的数据进行了4个epoch 的训练。在预训练阶段,GPT-4使用了8k 的上下文长度(seqlen),而32k的版本是基于预训练后的8K版本微调而来的。原创 2024-04-23 00:05:47 · 6564 阅读 · 0 评论 -
【大模型应用开发-实战】(四)使用embedding在⾃⼰的电脑上运⾏⼤模型
【大模型应用开发-实战】(三)使用embedding在⾃⼰的电脑上运⾏⼤模型。【大模型应用开发-实战】(三)使用embedding在⾃⼰的电脑上运⾏⼤模型。【大模型应用开发-实战】(三)使用embedding在⾃⼰的电脑上运⾏⼤模型。【大模型应用开发-实战】(三)使用embedding在⾃⼰的电脑上运⾏⼤模型。【大模型应用开发-实战】(三)使用embedding在⾃⼰的电脑上运⾏⼤模型。【大模型应用开发-实战】(三)使用embedding在⾃⼰的电脑上运⾏⼤模型。原创 2024-04-22 12:05:47 · 384 阅读 · 0 评论 -
【大模型应用开发-实战】(三)使用embedding在⾃⼰的电脑上运⾏⼤模型
【大模型应用开发-实战】(三)使用embedding在⾃⼰的电脑上运⾏⼤模型。【大模型应用开发-实战】(三)使用embedding在⾃⼰的电脑上运⾏⼤模型。【大模型应用开发-实战】(三)使用embedding在⾃⼰的电脑上运⾏⼤模型。【大模型应用开发-实战】(三)使用embedding在⾃⼰的电脑上运⾏⼤模型。【大模型应用开发-实战】(三)使用embedding在⾃⼰的电脑上运⾏⼤模型。【大模型应用开发-实战】(三)使用embedding在⾃⼰的电脑上运⾏⼤模型。原创 2024-04-22 11:55:37 · 424 阅读 · 0 评论 -
【大模型应用开发-ES】(四)ElasticSearch安装ElasticSearch安装ElasticSearch安装
【大模型应用开发-ES】(四)ElasticSearch安装ElasticSearch安装ElasticSearch安装【大模型应用开发-ES】(四)ElasticSearch安装ElasticSearch安装ElasticSearch安装【大模型应用开发-ES】(四)ElasticSearch安装ElasticSearch安装ElasticSearch安装。原创 2024-04-21 17:24:31 · 328 阅读 · 0 评论 -
【大模型应用开发-ES】(三)ElasticSearch功能详解与原理
【大模型应用开发-ES】(三)ElasticSearch功能详解与原理。【大模型应用开发-ES】(三)ElasticSearch功能详解与原理。【大模型应用开发-ES】(三)ElasticSearch功能详解与原理。【大模型应用开发-ES】(三)ElasticSearch功能详解与原理。原创 2024-04-21 17:23:57 · 273 阅读 · 1 评论 -
【大模型应用开发-ES】(二)ElasticSearch安装
1、创建目录2、增加配置""""""3、设置权限4、拉取镜像5、启动服务。1、创建目录2、增加配置""""""3、设置权限4、拉取镜像5、启动服务。1、创建目录2、增加配置""""""3、设置权限4、拉取镜像5、启动服务。1、创建目录2、增加配置""""""3、设置权限4、拉取镜像5、启动服务。1、创建目录2、增加配置""""""3、设置权限4、拉取镜像5、启动服务。1、创建目录2、增加配置""""""3、设置权限4、拉取镜像5、启动服务。1、创建目录2、增加配置""""""3、设置权限4、拉取镜像5、启动原创 2024-04-20 16:10:34 · 299 阅读 · 0 评论 -
【大模型应用开发-ES】(一)ElasticSearch概述
【大模型应用开发-ES】(一)ElasticSearch概述。【大模型应用开发-ES】(一)ElasticSearch概述。【大模型应用开发-ES】(一)ElasticSearch概述。【大模型应用开发-ES】(一)ElasticSearch概述。【大模型应用开发-ES】(一)ElasticSearch概述。【大模型应用开发-ES】(一)ElasticSearch概述。【大模型应用开发-ES】(一)ElasticSearch概述。【大模型应用开发-ES】(一)ElasticSearch概述。原创 2024-04-20 15:58:42 · 501 阅读 · 1 评论 -
【大模型应用开发-实战】(二)使用Ollama在⾃⼰的电脑上运⾏⼤模型(中)
本文将继续使用qwen:0.5作为实例,来演示通过web url访问大模型。1、Chat Web UI 安装。本文将继续使用qwen:0.5作为实例,来演示通过web url访问大模型。1、Chat Web UI 安装。本文将继续使用qwen:0.5作为实例,来演示通过web url访问大模型。1、Chat Web UI 安装。本文将继续使用qwen:0.5作为实例,来演示通过web url访问大模型。1、Chat Web UI 安装。本文将继续使用qwen:0.5作为实例,来演示通过web url访问大模原创 2024-04-19 20:38:06 · 271 阅读 · 0 评论 -
【大模型应用开发-FastAPI框架】(十二) FastAPI 日志输出到文件
FastAPI 使用标准的Pythonlogging 模块来进行日志记录。我们可以通过配置 logger 来指定日志的级别、格式以及输出位置。在默认情况下,FastAPI 的日志信息会输出到控制台。下面是一个简单的例子,演示如何在 FastAPI 中记录日志:参考。FastAPI 使用标准的Pythonlogging 模块来进行日志记录。我们可以通过配置 logger 来指定日志的级别、格式以及输出位置。在默认情况下,FastAPI 的日志信息会输出到控制台。下面是一个简单的例原创 2024-04-19 00:43:40 · 2749 阅读 · 1 评论 -
【大模型应用开发-实战】(一)使用Ollama在⾃⼰的电脑上运⾏⼤模型(上)
易于使⽤:Ollama 提供了类似 OpenAI 的 API 接⼝和聊天界⾯,使得⽤户可以轻松地与模型进⾏交。类似 OpenAI 的 API 接⼝和聊天界⾯,可以⾮常⽅便地在本地部署各种开源的⼤模型并通过接⼝使⽤。降低成本:开发阶段,可以在本地环境中使⽤ Ollama ,减少调⽤⼤模型平台接⼝ token 的消耗。热加载模型⽂件:Ollama⽀持热加载模型⽂件,这意味着⽤户可以在不重启服务的情况下更换或更 新模型。定制化与可扩展性:⽤户可以根据⾃⼰的任务和需求,定制和创建⾃⼰的语⾔模型。原创 2024-04-18 21:10:04 · 891 阅读 · 0 评论 -
【大模型应用开发-LangChain】(二)LangChain概述
转换成向量也很简单,只需要我们把数据存储到对应的向量数据库中即可完成向量的转换。官方也提供了很多的向量数据库供我们使用。一个 Chain 就是一个任务,当然也可以像链条一样,一个一个的执行多个链。顾名思义,文本分割就是用来分割文本的。,让他进行总结,他肯定会报超过最大 Token 错。功能还是直接通过向量数据库直接查询,都需要将我们的加载进来的数据。上面只是简单的进行列举了几个,官方提供了超级的多的加载器供你使用。顾名思义,这个就是从指定源进行加载数据的。比如我们将一份300页的 pdf 发给。原创 2024-04-17 23:22:52 · 577 阅读 · 0 评论 -
【大模型应用开发-LangChain】(一)LangChain概述
众所周知 OpenAI 的 API 无法联网的,所以如果只使用自己的功能实现联网搜索并给出回答、总结 PDF 文档、基于某个 Youtube 视频进行问答等等的功能肯定是无法实现的。LangChain 是一个用于开发由语言模型驱动的应用程序的框架。拥有大量的文档加载器,比如 Email、Markdown、PDF、Youtube …Prompt管理,支持各种自定义模板。原创 2024-04-17 23:19:53 · 785 阅读 · 0 评论 -
【大模型应用开发-Pandas数据清洗】(四)Pandas Dataframe处理
【大模型应用开发-Pandas数据清洗】(四)Pandas Dataframe处理。【大模型应用开发-Pandas数据清洗】(四)Pandas Dataframe处理。【大模型应用开发-Pandas数据清洗】(四)Pandas Dataframe处理。【大模型应用开发-Pandas数据清洗】(四)Pandas Dataframe处理。【大模型应用开发-Pandas数据清洗】(四)Pandas Dataframe处理。【大模型应用开发-Pandas数据清洗】(四)Pandas Dataframe处理。原创 2024-04-17 09:24:38 · 323 阅读 · 0 评论 -
【大模型应用开发-Pandas数据清洗】(三)Pandas数据结构
【大模型应用开发-Pandas数据清洗】(三)Pandas数据结构。【大模型应用开发-Pandas数据清洗】(三)Pandas数据结构。【大模型应用开发-Pandas数据清洗】(三)Pandas数据结构。【大模型应用开发-Pandas数据清洗】(三)Pandas数据结构。【大模型应用开发-Pandas数据清洗】(三)Pandas数据结构。【大模型应用开发-Pandas数据清洗】(三)Pandas数据结构。原创 2024-04-17 09:24:33 · 184 阅读 · 0 评论 -
【大模型应用开发-Pandas数据清洗】(二)Pandas安装
Python 官方标准发行版并没有自带 Pandas 库,因此需要另行安装。除了标准发行版外,还有一些第三方机构发布的 Python 免费发行版, 它们在官方版本的基础上开发而来,并有针对性的提前安装了一些 Python 模块,从而满足某些特定领域的需求,比如专门适应于科学计算领域的 Anaconda,它就提前安装了多款适用于科学计算的软件包。对于第三方发行版而言,它们已经自带 Pandas 库,所以无须另行安装。原创 2024-04-16 13:53:21 · 919 阅读 · 0 评论 -
【大模型应用开发-Pandas数据清洗】(一)Pandas概述
Pandas 是一个开源的第三方 Python 库,从 Numpy 和 Matplotlib 的基础上构建而来,享有数据分析“三剑客之一”的盛名(NumPy、Matplotlib、Pandas)。Pandas 已经成为 Python 数据分析的必备高级工具,它的目标是成为强大、灵活、可以支持任何编程语言的数据分析工具。原创 2024-04-16 13:52:45 · 707 阅读 · 0 评论 -
【大模型应用开发-FastAPI框架】(十一) Fastapi使用SSE实现流式输出
服务端推送在服务器推送技术中,服务器在消息可用后立即主动向客户端发送消息。其中,有两种类型的服务器推送:SSE和 WebSocket。SSE 是一种在基于浏览器的 Web 应用程序中仅从服务器向客户端发送文本消息的技术。SSE基于 HTTP 协议中的持久连接, 具有由 W3C 标准化的网络协议和 EventSource 客户端接口,作为 HTML5 标准套件的一部分。原创 2024-04-15 23:30:56 · 3648 阅读 · 1 评论 -
【大模型应用开发-FastAPI框架】(十) Fastapi使用JWT实现鉴权
随着Web应用程序的发展,用户身份验证和授权成为了一个至关重要的部分。使用JWT(JSON Web Token)令牌可以方便地实现身份验证和授权功能。FastAPI是一个基于Python的现代Web框架,它提供了简单易用的功能来处理身份验证和授权。本文将介绍如何在fastapi中使用jwt令牌进行身份验证和授权。随着Web应用程序的发展,用户身份验证和授权成为了一个至关重要的部分。使用JWT(JSON Web Token)令牌可以方便地实现身份验证和授权功能。FastAPI是一个基于Python的现代Web原创 2024-04-15 23:29:57 · 2415 阅读 · 0 评论
分享