LLM
文章平均质量分 65
处女座_三月
增长见识, 去见识更加广阔的世界
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
大模型架构记录13【hr agent】
tool"""生成唯一的时间戳。输入始终为空字符串。Returns:int: 唯一的时间戳,以毫秒为单位。"""timestamp = int(time.time() * 1000) # 获取当前时间的毫秒级时间戳import os@tool"""根据给定的文件夹名创建文件夹。Args:folder_name (str): 要创建的文件夹的名称。Returns:str: 创建的文件夹的路径。原创 2025-03-30 21:42:09 · 433 阅读 · 0 评论 -
大模型架构记录12【Agent实例-tool】
tooltools。原创 2025-03-30 20:59:01 · 773 阅读 · 0 评论 -
大模型重点5【Agent构建】
包括自定义的字段以及types. 然而,openAI自己也实现了这套逻辑,也叫做functional call, 就是返回用户自定义的Json的structure。Functional Call of OpenAI 是 OpenAI 提供的一种功能,原创 2025-03-27 00:31:03 · 931 阅读 · 0 评论 -
语音识别执行代码
给 二号 精髓 更 深层 一个 维修工 单 内容 是 设备 次序 能耗 高 可能 与 精髓 不 稳定 有关 发送 给 王宁。----------------> 开始执行所有模型 语音识别, 录音文件:20250324_1106.wav。嗯啊给二号进水泵生成一个维修工单 内容是设备持续能耗高 可能与进水不稳定有关 发送给王林。--------------> 暂定选择模型:ali_speech_paraformer。给二号进水泵生成一个维修工单内容是设备持续能耗高可能与进水不稳定有关发送给王宁。原创 2025-03-25 15:11:15 · 367 阅读 · 0 评论 -
大模型重点4【RAG优化】
RAG是一种结合了检索和生成的技术,用于提高问答系统的性能。这种方法可以帮助模型更深入地理解问题,并从文档中检索到更相关的内容,从而提高生成答案的质量。根据当前的上下文和已检索到的信息,动态地生成新的查询来进一步检索更精确的信息。在RAG模型中,检索器负责从文档集合中找到与输入查询最相关的文档片段。:在RAG模型中,自我查询检索可能涉及到模型在生成答案的过程中,:可能指的是对检索器的改进,以提高检索结果的相关性和准确性。:可能涉及对查询语句的优化,使其更有效地检索相关信息。模型会生成自己的查询来检索信息。原创 2025-03-24 23:49:45 · 1032 阅读 · 0 评论 -
大模型重点3【综述-langchain】
LangChain 是一个用于开发由大型语言模型(LLM)驱动的应用程序的开源框架。它提供了一套工具、组件和接口,简化了创建由 LLM 和聊天模型支持的应用程序的过程。LangChain 的核心目标是让开发者能够轻松地将 LLM 与外部数据源、API 和其他工具集成,从而构建出更智能、更实用的应用。为什么需要 LangChain?调用多个不同的大模型(gpt4, 视频生成...)向量数据库数据类型(读取,trunk的切分...)langchain功能连接数据源。原创 2025-03-24 08:53:45 · 1262 阅读 · 0 评论 -
Python项目中加载环境变量
要在Python项目中安全地加载环境变量(如API密钥),可以按照以下步骤使用安装库。原创 2025-03-24 00:18:39 · 603 阅读 · 0 评论 -
大模型重点2 【综述-相关代码】
主要是简单搭建一个聊天机器人。原创 2025-03-22 13:05:56 · 395 阅读 · 0 评论 -
大模型重点1 【综述-文字版】
提示词,是一个非常关键的概念,它指的是,用于引导语言模型生成相应的回答或执行特定任务。:有时又叫Pre-trained Model,预训练模型是指。它通过自监督学习(如掩码语言建模、下一句预测等任务)学习语言的通用知识,包括语法、语义、上下文关系等。:(智能体) 是一种基于大型语言模型(LLM)构建的智能实体,它能够自主感知环境、做出决策并执行任务。拆解复杂任务为可执行的子任务,并评估执行策略。存储和回忆信息,包括短期记忆(会话上下文)和长期记忆(用户特征、业务数据等)。:通过来扩展自身能力。原创 2025-03-22 11:47:02 · 1373 阅读 · 0 评论 -
VOSK的Python服务端部署完整方案
│ └── vosk-model-cn-0.22 # 预下载的中文模型。│ ├── main.py # FastAPI服务代码。│ └── vosk-helper.py # 音频处理工具。优化的GPU支持(需额外配置NVIDIA容器工具)最终镜像体积约1.2GB(包含完整模型)自动内存管理(限制内存泄漏风险)支持ARM/x86双架构。原创 2025-03-21 17:32:42 · 1202 阅读 · 0 评论 -
大模型架构记录11-多模态大模型
一 什么是多模态大模型?原创 2025-03-21 01:05:38 · 323 阅读 · 0 评论 -
大模型agent的构建
用Chain-of-Thought(思维链)或ReAct框架拆分复杂任务。图像:多模态大模型(如GPT-4V)或专用模型(CLIP)。:对小任务使用轻量级模型(如GPT-3.5 Turbo)。(文本、语音、图像等),转化为大模型可处理的格式。:添加内容过滤层,限制危险工具调用(如删除文件)。(如客服、个人助手、数据分析、自动化流程等)。(生成文本、调用API、控制设备等)。语音:ASR模型(如Whisper)。:人工反馈或自动评估(如任务成功率)。(如一个负责规划任务,一个负责执行)。原创 2025-03-20 22:07:05 · 1219 阅读 · 0 评论 -
大模型架构记录-路线分析
大模型下载地址:魔搭社区模型介绍地址:算力租用平台:AutoDL算力云 | 弹性、好用、省钱。租GPU就上AutoDLGPU显存预估: 显存计算器 - 大模型显存需求分析工具 | LlamaFactory | LlamaFactory原创 2025-03-20 21:55:39 · 326 阅读 · 0 评论 -
大模型架构记录10-fine_tune
-fine_tune原创 2025-03-19 00:39:32 · 222 阅读 · 0 评论 -
大模型架构记录9-定义工具
怎么定义调用工具原创 2025-03-18 01:19:37 · 252 阅读 · 0 评论 -
大模型架构记录8-agent
先搭建框架,后期再细化笔记。原创 2025-03-17 00:54:07 · 295 阅读 · 0 评论 -
大模型token和字符串的关系
在大多数情况下(尤其是多语言模型),“你好”对应。原创 2025-03-15 23:32:30 · 1386 阅读 · 0 评论 -
大模型架构记录6-推荐算法
向量数据库 + 推荐系统PQ算法,先分多个空间,再在空间里面去找对应的最佳值。原创 2025-03-14 00:50:19 · 343 阅读 · 0 评论 -
大模型架构记录5-向量数据库
先和N个空间的均值比较再和空间内部的所有点比较,计算最近值。query -> requery 对问题做处理,处理上下文。对query 做 refined query。原创 2025-03-13 23:36:29 · 266 阅读 · 0 评论 -
大模型架构记录4-文档切分 (chunks构建)
chunks: 块trunks : 树干“RAG”通常指 检索增强生成(Retrieval-Augmented Generation)主要框架:用户提query,找到和它相关的,先把问题转换为向量,和向量数据库的数据做比较,检索相似的向量,返回 对应向量的原始文本,构建prompt,给模型回答问题。原创 2025-03-11 22:55:25 · 1253 阅读 · 0 评论 -
大模型架构记录3-1-Gradio 入门
聊天模型展示功能,非常好用原创 2025-03-11 21:19:07 · 338 阅读 · 0 评论 -
大模型架构记录3-提示工程a
根据下面的上下文回答问题。保持答案简短且准确。如果不确定答案,请回答“不确定答案”。Teplizumab起源于一个位于新泽西的药品公司,名为Ortho Pharmaceutical。在那里,科学家们生成了一种早期版本的抗体,被称为OKT3。最初这种分子是从小鼠中提取的,\能够结合到T细胞的表面,并限制它们的细胞杀伤潜力。在1986年,它被批准用于帮助预防肾脏移植后的\器官排斥,成为首个被允许用于人类的治疗性抗体。问题:OKT3最初是从什么来源提取的?"""OKT3最初是从小鼠中提取的。原创 2025-03-09 03:15:58 · 1199 阅读 · 0 评论 -
大模型架构记录2
可以选用不同的模型,需要对应的API KEY。原创 2025-03-07 00:06:13 · 318 阅读 · 0 评论 -
大模型架构记录1
整合文档资源:将公司 产品文档、规范文档、定价信息及FAQ等纳入向量数据库。向量数据库与模型交互:将文档内容向量化后存入向量数据库,供模型实时检索与交互,提供服务。原创 2025-03-05 23:07:54 · 2456 阅读 · 0 评论
分享