自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(45)
  • 收藏
  • 关注

原创 基于CAMEL 的Workforce 实现多智能体协同工作系统

Workforce是CAMEL框架中的一个多智能体协同工作系统。它以一种简洁的方式让多个智能体协作完成任务,类似于一个高效的团队合作系统。planner_agent = ChatAgent(system_message = """你是一个专业的旅行规划师。你的职责是:1. 根据景点分布规划合理的游览顺序2. 为每天安排适量的景点和活动3. 考虑用餐、休息等时间4. 注意不同季节的特点请确保行程安排合理且具有可行性。

2025-03-21 23:26:52 786

原创 基于CAMEL 的多智能体系统实现

,我们将可以在与智能体之间交互中掌握主动权,去选择优化和调整,并且提升角色表现。camel-ai 官网链接:https://www.camel-ai.org/代码运行前,需要先获取硅基流动API,并保存在代码目录下的。(4)初始化RolePlaying对象并进行循环互动对话。(2)基于配置好的参数创建RolePlaying对象。CAMEL 中多智能体的实现主要是通过角色扮演。(3)设计Agent终止输出函数。将"human"赋值。

2025-03-18 20:02:11 664

原创 CAMEL 环境配置及基于硅基流动API的Agent构建

CAMEL是一个基于大语言模型的多智能体框架,主要用于智能体之间的协作和交互。

2025-03-10 19:37:13 586

原创 dify + BochaWebSearch 实现ollama与硅基流动deepseek的联网搜索

配置时,通过创建自定义工具的方法,将BochaWebSearch设置为自定义工具,然后在工作流中接入BochaWebSearch 节点即可。基础URL 为ollama 服务,默认是 http://127.0.0.1:11434。创建自定义工具的方法为在dify的工具界面,点击创建自定义工具。进行登陆(本地配置可以登陆 http://127.0.0.1 或者http://localhost),进行Dify的设置。模型配置时,可根据具体需求进行选择Ollama 模型配置或者其他模型供应商的模型。

2025-02-28 17:17:12 1517

原创 Dify在Ubuntu20.04系统的部署

Dify 是一款开源的大语言模型(LLM)智能体开发平台,可以用于快速搭建个性化或具备商业价值的智能体。

2025-02-27 17:36:52 2208 2

原创 WebUI 部署 Ollama 可视化对话界面

下载链接为:https://cdn.npmmirror.com/binaries/node/v18.19.0/node-v18.19.0-linux-x64.tar.xz。参考链接:https://github.com/n4ze3m/page-assist/issues/309。官网链接为: https://www.nodejs.com.cn/download.html。克隆 ollama-webui 仓库,切换 ollama-webui 代码的目录。出现报错时,说明网络状态不佳,重试一次即可。

2025-02-25 20:06:32 1598

原创 使用FastAPI进行可视化部署

FastAPI是一个高性能的Python Web框架,它基于Starlette并利用了 Python类型提示的优势。它可以帮助我们快速构建具有强大功能的Web应用程序。

2025-02-23 17:36:14 649

原创 pycharm 集成Continue、ollama、DeepSeek 与硅基流动平台

This file does not belong to the project“ 时,选择"This file",然后确定。配置信息写入更新后(仅替换默认config 文件中的"models"部分即可),重启pycharm即可。包含remote ollama 配置和硅基流动配置的config 文件如下。结构化后的硅基流动 config 配置文件如下。3.Continue 插件配置信息修改。Continue 插件配置信息修改。重启 pycharm 完成激活。中创建 API Key。

2025-02-21 15:06:28 2231

原创 Ollama 在 LangChain 中的使用

LangChain 是一个基于语言模型的框架,用于构建聊天机器人、生成式问答(GQA)、摘要等功能。它的核心思想是将不同的组件“链”在一起,以创建更高级的语言模型应用。LangChain就像一个超级连接器,可以轻松和各种外部工具(比如API、搜索引擎)对接。比如,想让聊天机器人能查询天气,只需要把天气API和LangChain连接起来,它就能帮你搞定。这样,你的应用功能会更强大,而且不需要自己去写复杂的代码。组件化:LangChain 框架提供了用于处理语言模型的抽象组件,以及每个抽象组件的一系列 实现。

2025-02-18 17:22:19 950

原创 在 Python 中使用 Ollama API

可以通过通过ollama实例化Client或来创建自定义客户端。host: 要连接的 Ollama 主机timeout: 请求超时时间所有关键字参数参见httpx.Client。

2025-02-16 13:35:49 1696 1

原创 Ollama 自定义导入模型

GGUF (GPT-Generated Unified Format) 是一种文件格式,用于保存经过微调的语言模型,旨在帮助用于用于在不同的平台和环境之间共享和导入模型。支持多种量化格式,可以有效的减少模型文件的大小。

2025-02-13 18:05:54 1185

原创 使用ollama一键本地部署DeepSeek-R1

一、ollama 介绍二、linux 系统下ollama 的安装与配置2.1 下载ollama的二进制文件2.2 验证安装是否完成三、本地运行deepseek-R1 1.5B3.1 在终端中开启 Ollama3.2 下载deepseek-R1 1.5B 并运行四、遇到的问题Ollama 是一个开源的大型语言模型服务工具,旨在帮助用户快速在本地运行大模型。仓库地址为:https://github.com/ollama/ollama。

2025-02-12 16:29:13 704

原创 coze图像流:单词卡片生成Bot

设计一个使用Coze图像流的单词卡片生成Bot。

2024-10-21 20:57:30 1131

原创 coze上构建必应搜索工作流

打开工作空间,进入后默认是个人空间,在其下方选择资源库,最后在右上角点击资源按钮,在弹出的列表中点击工作流。工作流描述:Useful for when you want to use search_test。工作流节点组成:开始节点,插件节点1,代码节点,插件节点2,结束节点。## 网页全文 {{output.content}}工作流名称:search_test。Python ## 搜索网页。• 输出返回值字段介绍。

2024-10-18 18:09:19 1218

原创 coze bot开发的最小实践

技术性:(Bot 搭建完整度,以及功能设计的逻辑性、技术实现的成熟度以及整体方案的稳定性。使用的工具是扣子专业版,用表格为我给出下面的信息,这些信息字段均放置到第一列,第二列是对应的阐述。使用的工具是扣子专业版,用表格为我给出下面的信息,这些信息字段均放置到第一列,第二列是对应的阐述。体验性:(Bot 的用户体验质量,包括交互的自然度、响应的及时性和准确性等。体验性:(Bot 的用户体验质量,包括交互的自然度、响应的及时性和准确性等。担任程序员的职业社交导师,助力职业社交发展。

2024-10-15 19:32:24 1071

原创 基于Prompt工程优化bot

基于Prompt工程优化coze bot

2024-10-15 19:26:47 844

原创 解决comfyUI运行报错DWPose: Onnxruntime not found or doesn‘t come with acceleration providers

Onnx 网站仅列出对 11.8 CUDA 的支持。新的 ComfyUI 使用的是 1.21。安装新版本的onnx。

2024-02-23 11:20:51 6693

原创 大模型学习与实践笔记(十五)

大模型学习与实践笔记(一)-优快云博客大模型学习与实践笔记(二)-优快云博客大模型学习与实践笔记(三)-优快云博客大模型学习与实践笔记(四)-优快云博客大模型学习与实践笔记(五)-优快云博客大模型学习与实践笔记(十二)-优快云博客大模型学习与实践笔记(六)-优快云博客大模型学习与实践笔记(七)-优快云博客大模型学习与实践笔记(十三)-优快云博客大模型学习与实践笔记(八)-优快云博客大模型学习与实践笔记(九)-优快云博客大模型学习与实践笔记(十)-优快云博客大模型学习与实践笔记(十一)

2024-01-29 19:35:54 353

原创 大模型学习与实践笔记(十四)

使用 OpenCompass 评测 InternLM2-Chat-7B 模型使用 LMDeploy 0.2.0 部署后在 C-Eval 数据集上的性能。

2024-01-29 19:07:47 709

原创 大模型学习与实践笔记(十三)

将训练好的模型权重上传到 OpenXLab

2024-01-25 19:14:56 752

原创 大模型学习与实践笔记(十二)

使用RAG方式,构建opencv专业资料构建专业知识库,并搭建专业问答助手,并将模型部署到openxlab 平台。

2024-01-23 19:06:15 578

原创 大模型学习与实践笔记(十一)

一、使用OpenCompass 对模型进行测评。

2024-01-21 22:10:41 596

原创 大模型学习与实践笔记(十)

2.基于医学知识问答,医学语言生成,复杂医学推理,医学语言理解,医疗安全与伦理,9个公开数据集,11个自建数据集。2.约3000 道单选题,覆盖目标检测,文本识别,动作识别,图像理解,关系推理等20个细粒度评估维度。2.20个法律任务,10000到测评问题,覆盖多领域NLP 任务。1.三级认知维度(法律知识理解,法律知识记忆,法律知识应用)1.基于感知与推理,将评估维度逐级细分。四、大模型评测带来的挑战。1.多来源基准评估维度。

2024-01-20 17:10:12 500

原创 大模型学习与实践笔记(九)

(1)在https://github.com/Dao-AILab/flash-attention/releases/ 下载。使用 LMDeploy 以本地对话方式部署 InternLM-Chat-7B 模型,生成 300 字的小故事。在使用命令,对lmdeploy 进行源码安装是时,报错。(2)通过pip 进行安装。

2024-01-18 19:27:47 1127

原创 大模型学习与实践笔记(八)

一、 LMDeploy的优势二、核心优势说明1.量化2.持续批处理3.Blocked k/v cache4.有状态的推理5.高性能cuda kernel

2024-01-18 19:15:10 575

原创 大模型学习与实践笔记(七)

Ubuntu + Anaconda + CUDA/CUDNN + 8GB nvidia显卡。默认是float 16格式加载模型,如果需要设置4bit量化加载。

2024-01-16 23:39:42 665

原创 大模型学习与实践笔记(六)

两种微调模式:增量预训练 与指令跟随1.增量预训练2.指令微调。

2024-01-16 21:39:12 599

原创 大模型学习与实践笔记(五)

1. huggingface 镜像下载 sentence-transformers 开源词向量模型。2.下载 NLTK 相关资源。

2024-01-11 21:17:50 811

原创 大模型学习与实践笔记(四)

RAG(Retrieval Augmented Generation)检索增强生成,即大模型LLM在回答问题或生成文本时,会先从大量的文档中检索出相关信息,然后基于这些检索出的信息进行回答或生成文本,从而可以提高回答的质量,而不是任由LLM来发挥。(3)数据安全问题:开源的LLM是没有企业内部数据和用户数据的,如果企业想在保证数据安全的前提下使用LLM,一种比较好的解决办法就是把数据放在本地,企业数据的业务计算全部放在本地完成。(2)时效性问题:LLM的参数量越大,训练的成本也就越高,时间也越长。

2024-01-11 20:38:41 569

原创 大模型学习与实践笔记(三)

1.使用 InternLM-Chat-7B 模型生成 300 字的小故事。2.熟悉 hugging face 下载功能,使用。4.完成 Lagent 工具调用 Demo 创作部署。的 config.json 文件到本地。3.完成浦语·灵笔的图文理解及创作部署。python 包,下载。

2024-01-07 17:53:28 489

原创 大模型学习与实践笔记(二)

课程讲师:宋志学大佬,d2l-ai-solutions-manual 开源项目负责人。local-dir:本地存储路径。(linux 环境下需要填写绝对路径)然后新建 python 文件,填入以下代码,运行即可。3.2.2.Hugging Face 方式下载。使用 Hugging Face 官方提供的。3.2.1.ModelScope 方式下载。resume-download:断点续下。3.2.3 OpenXLab 方式下载。三、基于InternLM的智能对话。下载模型中的部分文件。二、Lagent框架。

2024-01-07 14:32:03 655

原创 大模型学习与实践笔记(一)

最近领导要求调研大模型的发展情况,需要补充大模型相关的基础知识,正好在openmmlab贡献者交流群里看到闻星大佬发布的一个上海人工智能实验室的一个课程,觉得正好合适。

2024-01-07 14:05:36 478

转载 【Let It Be Color!——3D重建之纹理重建】01-几种坐标系及相互之间的转换

这一篇博文中,我们简单地介绍了世界坐标系、相机坐标系、图像坐标系以及它们之间的变换,这实际上是基于图像的3D重建的基础,无论是重建几何信息时还是重建纹理信息时都多有涉及,因此不放将之看作是前置性内容。随后我们介绍了三角形的重心坐标系,该坐标系在处理网格表面的三角形时十分常用,但仍然属于预备知识范畴。下一篇博文,我们将展开纹理重建的正式内容,介绍网格面片的视角选择过程。

2023-03-16 14:43:31 820 1

转载 【Let It Be Color!——3D重建之纹理重建】02-基于映射的纹理重建算法(上)

【摘要】 1 引言在上一篇博文中,我们已经提到过纹理重建的主流方案可以分成基于融合和基于映射的方法。其中,基于映射的方法可能是更可靠的,这其中有论文地位的佐证,此外一些优秀的开源项目,例如OpenMVS,在进行纹理重建时也是采用的此种方法。从本篇博文开始,我们将开始对基于映射的方法进行详细的梳理,考虑到整体长度,这一内容可能会被拆分到数篇博文中,笔者将尝试结合论文(Waechter2014)和开源工程...

2023-03-16 14:41:08 1514 1

转载 【Let It Be Color!——3D重建之纹理重建】03-基于映射的纹理重建算法(下)

本文总结了消除边界的具体实现方案,介绍了全局颜色调整和局部颜色调整两种不同的思路,并对方法的来源和改进分别进行了描述。至此,基于映射的纹理重建方法的理论已经介绍完毕,整体上还是有些粗糙,后续若有时间可能会结合代码实现来详细的讲解,当然也会对3D重建技术相关的其他子领域进行理论梳理。

2023-03-16 14:40:16 989

原创 Ubuntu16.04下彻底卸载clion,安全可复原方法

clion的彻底卸载对应的配置文件

2023-01-30 22:11:30 2785 1

原创 Typora出现failed to export as pdf

2021-12-14 17:33:05 3248 8

原创 #牛客网刷题# include双引号与尖括号的区别

<>先去系统目录中找头文件,如果没有在到当前目录下找。所以像标准的头文件 stdio.h、stdlib.h等用这个方法。而""首先在当前目录下寻找,如果找不到,再到系统目录中寻找。 这个用于include自定义的头文件,让系统优先使用当前目录中定义的。如何帮助记忆呢,可以这样考虑:<>内的内容一般显得比较正式,而" "常用来引入自己所写的类,为了提高效率,自...

2019-10-07 20:45:28 257

翻译 VGG论文翻译《Very Deep Convolutional Networks for Large-Scale Image Recognition》

目录 用于大规模图像识别的深层卷积网络摘要1.引言2. ConvNet配置2.1架构2.2配置2.3讨论3.分类框架3.1训练3.2测试3.3 实现细节4 分类实验4.1 单尺度评估4.2 多尺度评估4.3 多裁剪图像评估4.4 卷积网络融合4.5 与现有技术比较5 结论...

2019-09-15 16:10:45 954

原创 AlexNet的结构分析过程记录

写总结也是为了帮助自己更好的理解,先是写给自己看,然后才是写给别人看。如果能在分享的过程中对他人有帮助是再好不过的事情,期待能够遇到志同道合的伙伴,但不强求。为什么写这篇文章?在看完论文《ImageNet Classification with Deep Convolutional Neural Networks》之后,似懂非懂,想起向老师说过,看一些经典的论文时,一定要去考虑复现,只有复现了...

2019-08-19 22:03:42 893 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除