
大模型应用
文章平均质量分 89
大模型应用与实践
AllYoung_362
这个作者很懒,什么都没留下…
展开
-
dify + BochaWebSearch 实现ollama与硅基流动deepseek的联网搜索
配置时,通过创建自定义工具的方法,将BochaWebSearch设置为自定义工具,然后在工作流中接入BochaWebSearch 节点即可。基础URL 为ollama 服务,默认是 http://127.0.0.1:11434。创建自定义工具的方法为在dify的工具界面,点击创建自定义工具。进行登陆(本地配置可以登陆 http://127.0.0.1 或者http://localhost),进行Dify的设置。模型配置时,可根据具体需求进行选择Ollama 模型配置或者其他模型供应商的模型。原创 2025-02-28 17:17:12 · 1947 阅读 · 0 评论 -
WebUI 部署 Ollama 可视化对话界面
下载链接为:https://cdn.npmmirror.com/binaries/node/v18.19.0/node-v18.19.0-linux-x64.tar.xz。参考链接:https://github.com/n4ze3m/page-assist/issues/309。官网链接为: https://www.nodejs.com.cn/download.html。克隆 ollama-webui 仓库,切换 ollama-webui 代码的目录。出现报错时,说明网络状态不佳,重试一次即可。原创 2025-02-25 20:06:32 · 2553 阅读 · 0 评论 -
在 Python 中使用 Ollama API
可以通过通过ollama实例化Client或来创建自定义客户端。host: 要连接的 Ollama 主机timeout: 请求超时时间所有关键字参数参见httpx.Client。原创 2025-02-16 13:35:49 · 1917 阅读 · 0 评论 -
pycharm 集成Continue、ollama、DeepSeek 与硅基流动平台
This file does not belong to the project“ 时,选择"This file",然后确定。配置信息写入更新后(仅替换默认config 文件中的"models"部分即可),重启pycharm即可。包含remote ollama 配置和硅基流动配置的config 文件如下。结构化后的硅基流动 config 配置文件如下。3.Continue 插件配置信息修改。Continue 插件配置信息修改。重启 pycharm 完成激活。中创建 API Key。原创 2025-02-21 15:06:28 · 3087 阅读 · 0 评论 -
Dify在Ubuntu20.04系统的部署
Dify 是一款开源的大语言模型(LLM)智能体开发平台,可以用于快速搭建个性化或具备商业价值的智能体。原创 2025-02-27 17:36:52 · 3221 阅读 · 4 评论 -
CAMEL 环境配置及基于硅基流动API的Agent构建
CAMEL是一个基于大语言模型的多智能体框架,主要用于智能体之间的协作和交互。原创 2025-03-10 19:37:13 · 678 阅读 · 0 评论 -
Ollama 在 LangChain 中的使用
LangChain 是一个基于语言模型的框架,用于构建聊天机器人、生成式问答(GQA)、摘要等功能。它的核心思想是将不同的组件“链”在一起,以创建更高级的语言模型应用。LangChain就像一个超级连接器,可以轻松和各种外部工具(比如API、搜索引擎)对接。比如,想让聊天机器人能查询天气,只需要把天气API和LangChain连接起来,它就能帮你搞定。这样,你的应用功能会更强大,而且不需要自己去写复杂的代码。组件化:LangChain 框架提供了用于处理语言模型的抽象组件,以及每个抽象组件的一系列 实现。原创 2025-02-18 17:22:19 · 1100 阅读 · 0 评论 -
使用FastAPI进行可视化部署
FastAPI是一个高性能的Python Web框架,它基于Starlette并利用了 Python类型提示的优势。它可以帮助我们快速构建具有强大功能的Web应用程序。原创 2025-02-23 17:36:14 · 719 阅读 · 0 评论 -
Ollama 自定义导入模型
GGUF (GPT-Generated Unified Format) 是一种文件格式,用于保存经过微调的语言模型,旨在帮助用于用于在不同的平台和环境之间共享和导入模型。支持多种量化格式,可以有效的减少模型文件的大小。原创 2025-02-13 18:05:54 · 1406 阅读 · 0 评论 -
coze上构建必应搜索工作流
打开工作空间,进入后默认是个人空间,在其下方选择资源库,最后在右上角点击资源按钮,在弹出的列表中点击工作流。工作流描述:Useful for when you want to use search_test。工作流节点组成:开始节点,插件节点1,代码节点,插件节点2,结束节点。## 网页全文 {{output.content}}工作流名称:search_test。Python ## 搜索网页。• 输出返回值字段介绍。原创 2024-10-18 18:09:19 · 1432 阅读 · 0 评论 -
coze bot开发的最小实践
技术性:(Bot 搭建完整度,以及功能设计的逻辑性、技术实现的成熟度以及整体方案的稳定性。使用的工具是扣子专业版,用表格为我给出下面的信息,这些信息字段均放置到第一列,第二列是对应的阐述。使用的工具是扣子专业版,用表格为我给出下面的信息,这些信息字段均放置到第一列,第二列是对应的阐述。体验性:(Bot 的用户体验质量,包括交互的自然度、响应的及时性和准确性等。体验性:(Bot 的用户体验质量,包括交互的自然度、响应的及时性和准确性等。担任程序员的职业社交导师,助力职业社交发展。原创 2024-10-15 19:32:24 · 1157 阅读 · 0 评论 -
解决comfyUI运行报错DWPose: Onnxruntime not found or doesn‘t come with acceleration providers
Onnx 网站仅列出对 11.8 CUDA 的支持。新的 ComfyUI 使用的是 1.21。安装新版本的onnx。原创 2024-02-23 11:20:51 · 7292 阅读 · 0 评论 -
基于Prompt工程优化bot
基于Prompt工程优化coze bot原创 2024-10-15 19:26:47 · 900 阅读 · 0 评论 -
coze图像流:单词卡片生成Bot
设计一个使用Coze图像流的单词卡片生成Bot。原创 2024-10-21 20:57:30 · 1261 阅读 · 0 评论 -
使用ollama一键本地部署DeepSeek-R1
一、ollama 介绍二、linux 系统下ollama 的安装与配置2.1 下载ollama的二进制文件2.2 验证安装是否完成三、本地运行deepseek-R1 1.5B3.1 在终端中开启 Ollama3.2 下载deepseek-R1 1.5B 并运行四、遇到的问题Ollama 是一个开源的大型语言模型服务工具,旨在帮助用户快速在本地运行大模型。仓库地址为:https://github.com/ollama/ollama。原创 2025-02-12 16:29:13 · 733 阅读 · 0 评论