
Large Language Model
文章平均质量分 94
慢热型网友.
顺境熬秉性 逆境熬心志.
展开
-
利用 Gradio 和 Ollama 构建本地化聊天应用
在本文中,我们将探讨如何使用 Ollama 提供的大模型 API 和 Gradio 库来创建一个流式对话界面。这个界面允许用户与 AI 模型进行实时对话,并且能够根据用户选择的不同模型生成响应。最后,我们使用 Gradio 创建一个自定义的聊天界面。在聊天界面中,我们提供了一个下拉菜单,让用户可以选择不同的模型。通过上述代码,我们成功地构建了一个基于 Gradio 和 Ollama 的本地化聊天应用。该应用不仅可以实现高效的聊天功能,还可以保护用户的隐私和数据安全。原创 2025-04-02 16:49:44 · 725 阅读 · 0 评论 -
快速构建个人本地知识库管理系统与实现RAG问答
在当今信息爆炸的时代,快速准确地获取知识变得尤为重要。本地 RAG(检索增强生成)系统结合了检索和生成技术,通过本地知识库提供精准答案。本文将详细介绍如何构建一个简单的本地 RAG 系统,包括知识库的创建、RAG 模块的实现以及用户交互界面的设计。RAG(Retrieval-Augmented Generation,检索增强生成)是一种结合了检索和生成技术的自然语言处理框架。它通过检索与问题相关的知识库内容,为生成模块提供上下文信息,从而生成更准确、更有针对性的答案。原创 2025-03-31 23:08:17 · 636 阅读 · 0 评论 -
浅析Model Context Protocol (MCP)协议:概念、优势与实战应用
在当今快速发展的AI技术领域,大语言模型(LLM)的应用越来越广泛。然而,如何高效地利用这些模型并将其集成到实际应用中,仍然是一个挑战。MCP(大模型上下文协议)正是为了解决这一问题而设计的。它通过定义一种标准化的通信机制,使得客户端和服务器能够高效地交互,充分利用大语言模型的强大能力。本文将详细介绍MCP协议的相关概念、优势以及实战应用。MCP。原创 2025-03-16 14:13:58 · 1045 阅读 · 0 评论 -
大语言模型中的 Function Calling
想象一下,当你向一个大语言模型(LLM)询问“今天北京的天气如何?”时,模型却只能根据其预训练的知识库给出一个模糊的回答,比如“北京的天气通常很宜人”,而无法提供具体的实时数据。然而,当你点击了“联网搜索”后,模型却能自动去网页搜索天气内容,并且总结后返回“今天北京天气晴朗,最高温度8℃,最低温度-1℃”,这背后的关键技术就是 Function Calling。Function Calling 让大模型能够突破预训练知识的局限,动态调用外部工具或函数,获取实时信息,从而提供更准确、更有用的回答。原创 2025-03-16 00:41:06 · 1324 阅读 · 0 评论 -
微信公众号接入大语言模型:借助智谱GLM-4-Flash实现高效智能交互
在当今数字化时代,微信公众号已成为企业与用户互动的重要平台。通过接入智能回复功能,公众号可以实现自动化问答、信息推送等,极大地提升用户体验和运营效率。智谱 GLM-4-Flash 作为一款强大的语言模型,能够生成高质量的文本内容,为公众号赋予更智能的交互能力。本文将详细介绍如何从零开始接入微信公众号,实现调用智谱 GLM-4-Flash API 来生成智能回复的全过程。通过本文的介绍,我们从零开始接入了微信公众号,实现了调用智谱 GLM-4-Flash API 来生成智能回复的全过程。原创 2025-03-10 21:58:29 · 1118 阅读 · 0 评论 -
打造智能钉钉机器人:借助智谱GLM-4-Flash实现高效智能回复(文末附源码)
在当今数字化办公的时代,钉钉作为一款广泛使用的办公协作工具,其机器人功能为企业和团队带来了诸多便利。通过创建自定义钉钉机器人,我们可以实现自动化消息推送、智能问答等功能,极大地提高工作效率。而智谱 GLM-4-Flash 作为一款强大的语言模型,能够生成高质量的文本内容,为我们的机器人赋予更智能的回复能力。本文将详细介绍如何从零开始打造一个智能钉钉机器人,实现调用智谱 API 来生成智能回复的全过程。原创 2025-03-10 01:01:00 · 1305 阅读 · 0 评论 -
【经验分享】Model Scope x Ollama:快速下载模型,提高开发效率!
在人工智能领域,模型的下载和部署一直是开发者面临的一大挑战。尤其是对于一些国外的模型平台,下载速度慢、需要翻墙等问题常常让人头疼。不过,最近魔塔社区(ModelScope)与 Ollama 的合作,为这一问题提供了一个完美的解决方案!Ollama 是一个非常受欢迎的人工智能模型平台,提供了丰富的模型资源。下载速度慢:网络延迟和带宽限制导致下载速度非常缓慢,有时甚至需要几个小时才能下载完成一个模型。原创 2025-02-07 22:56:40 · 4323 阅读 · 0 评论 -
一个命令,教你使用Ollama在本地部署DeepSeek-R1
随着大语言模型在各个领域的广泛应用,本地部署成为许多开发者和企业的首选。本地部署不仅可以保护数据隐私,还能减少对云服务的依赖,提升响应速度。DeepSeek-R1作为一种高性能的推理模型,已经在多个任务中展现出卓越的性能。本文将详细介绍如何使用Ollama在本地部署DeepSeek-R1模型。DeepSeek,全称杭州深度求索人工智能基础技术研究有限公司,是一家成立于2023年7月的中国人工智能公司。公司专注于开发先进的大语言模型(LLM)及相关技术,致力于突破认知智能的边界。原创 2025-02-04 23:58:45 · 1352 阅读 · 0 评论