- 博客(473)
- 收藏
- 关注
原创 大模型系列——专家混合模型 (MoE)快速指南
专家混合模型(MoE)在高效大模型中的应用与发展 专家混合(MoE)已成为提升大语言模型效率的关键架构。本文介绍了MoE的基本原理,如Mixtral-8×7B模型通过8个专家和路由机制实现了47B参数的强大性能,同时仅激活13B参数。研究显示,增加专家数量和粒度能提升模型质量,但需平衡路由成本。最新进展如"百万专家混合"提出优化路由方法,使模型规模可扩展至百万专家级别。此外,MoE还被应用于终身学习场景,通过冻结主干并训练新专家来适应新数据,避免灾难性遗忘。这些研究表明MoE在提升模型性
2025-06-16 07:52:28
80
原创 大模型系列——LangChain开发RAG增强检索生成
本文介绍了基于LangChain开发RAG(检索增强生成)系统的完整流程。系统结合PGVector向量数据库和LangGraph状态管理,实现文档检索与语言模型协同工作。主要内容包括:初始化GPT-4模型,加载网页文档并进行文本分割;使用OpenAI嵌入模型向量化文档;构建由分析、检索、生成三阶段组成的LangGraph流程;通过PostgreSQL保存对话状态。该系统能够根据用户提问自动检索相关文档内容,生成准确回答,适用于问答、摘要等多种场景,有效提升了生成结果的相关性和准确性。
2025-06-16 07:51:06
118
原创 大模型系列——用AI简化用户画像分析
AI助力用户体验研究:高效创建用户画像与旅程图 摘要: 本文探讨了生成式AI工具在用户体验研究中的应用,重点介绍如何利用AI辅助创建用户画像和旅程图。作者通过20年UX研究经验,开发了一套混合提示方法,能够更高效地将研究数据转化为生动的用户画像和详细的旅程图。文章详细说明了从数据收集、角色设定到AI提示设计的完整流程,强调AI作为辅助工具的角色,仍需研究人员把控数据准确性和消除偏见。同时提供了具体操作示例,包括上传文档格式、保护数据隐私的注意事项,以及优化AI输出结果的技巧。这种方法特别适合缺乏创意写作能力
2025-06-15 09:17:49
124
原创 大模型系列——使用 Redis 和 Spring AI 创建 RAG(检索增强生成)应用
本文介绍了如何使用Redis和Spring AI构建检索增强生成(RAG)应用。RAG技术通过结合向量数据库和大型语言模型(LLM),为查询提供上下文信息,避免LLM幻觉问题。主要内容包括: RAG架构概述:通过ETL流程将知识库文档分割、矢量化并存储到Redis向量数据库,增强LLM提示的准确性。 实现步骤: 准备OpenAI API密钥和Redis Cloud账户 配置Spring AI框架的Maven依赖 使用PagePdfDocumentReader读取PDF文档 通过TokenTextSplitt
2025-06-14 23:04:43
113
原创 大模型系列——使用 Embedding 模型和向量数据库的 Spring AI RAG
本文介绍了如何使用Spring AI实现检索增强生成(RAG)技术,主要包括: 嵌入式模型的基本概念及其在自然语言处理中的作用 使用DocumentReader加载数据的方法 在VectorStore中存储Embedding的技术实现 RAG(检索增强生成)的完整工作流程 文章通过示例代码展示了如何使用Spring AI将文本转换为Embedding向量,并存储在向量数据库中。重点说明了如何利用自然语言查询向量数据库获取相关数据,再通过AI模型生成响应。这种方法解决了大型语言模型缺乏特定领域知识的局限,无需
2025-06-14 23:03:36
8
原创 大模型系列—— LLM大模型部署实战指南:Ollama简化流程,OpenLLM灵活部署,LocalAI本地优化,Dify赋能应用开发
《LLM大模型本地部署实战指南》摘要 本文介绍了四种LLM大模型部署方案,重点详述了Ollama的安装部署流程。Ollama作为开源框架,专为简化本地LLM部署而设计,具有轻量级、可扩展、API支持和预建模型库等特点。 主要包含: 一键安装方法及SSL证书问题解决 手动安装的完整步骤(创建用户、配置服务) Linux内网离线安装方案 模型存储路径修改方法 模型下载运行操作指南(pull/run/list命令) GPU资源监控方式 同时简要提及OpenLLM、LocalAI和Dify等其他部署方案。全文提供详
2025-06-13 07:46:54
128
原创 大模型系列——RAG+AI工作流+Agent:LLM框架该如何选择,全面对比MaxKB、Dify、FastGPT、RagFlow、Anything-LLM
本文对比了几款主流LLM框架:MaxKB、Dify、FastGPT、RagFlow和Anything-LLM。MaxKB是企业级知识库问答系统,支持文档管理和智能问答;Dify是LLM应用开发平台,提供工作流编排、Agent框架和RAG引擎;FastGPT专注知识库训练和工作流自动化;RagFlow是基于深度文档理解的开源RAG引擎。各框架在技术栈、功能侧重点和适用场景上有所不同,企业可根据需求选择。MaxKB适合企业知识管理,Dify适合复杂应用开发,FastGPT和RagFlow侧重知识库与检索增强。
2025-06-13 07:43:21
35
原创 大模型系列——Dify入门 知识库分析
Dify知识库功能入门指南:Dify的知识库提供了一个便捷的管理平台,可用于存储业务问答、操作逻辑和公司资料等内容。操作简单,支持多格式文件上传,通过向量化模型将文本转化为数字以便计算处理。知识库维护灵活,可批量添加内容并调整关键词匹配。内置检索测试功能帮助优化内容准确性,适用于Agent、工作流等多种场景。本质上,知识库是为大模型配备的"记事本",让模型能参考预设内容更精准地回答问题。
2025-06-12 07:52:31
13
原创 大模型系列——dify打造数据可视化图表
摘要 文章介绍了如何利用蚂蚁集团AntV团队开源的mcp-server-chart工具实现数据可视化,并结合Dify工作流从数据库生成图表。该工具支持15+常用图表类型,提供图片链接返回结果。通过Docker快速部署后,演示了Cherry Studio调用生成词云图的示例。重点展示了Dify+MySQL+mcp-server-chart的工作流方案:用户自然语言提问→需求提炼→SQL转换→查询数据→生成图表。文中包含完整的MySQL表创建、数据插入示例,以及Dify工作流各节点配置细节,特别强调需使用Dee
2025-06-12 07:46:57
135
原创 大模型系列——Dify通过插件查询MySQL
摘要:本文介绍了如何通过Dify平台实现AI直接查询MySQL数据库的功能,无需传统数据库客户端或编程语言。关键点包括提供表结构信息给AI模型和使用Dify的数据库查询工具。具体实现步骤包括安装插件、创建Chatflow、配置表结构转换节点和Agent节点、设置数据库连接和提示词等。最后展示了查询结果,并提到还可以通过MCP或HTTP请求等其他方式实现数据库查询。该方案简化了数据库查询流程,提升了效率。
2025-06-11 07:53:41
453
2
原创 大模型系列——python 的现代包管理器UV
本文介绍了Python现代包管理器uv的基本使用方法。主要内容包括: 使用uv init初始化项目,创建规范的目录结构(src-layout或flat-layout),重点说明了--package选项用于创建可分发应用。 uv的功能:不仅是包管理器,还作为Python构建系统前端和环境管理器,可通过uv run运行脚本或命令。 项目开发流程:包括创建虚拟环境、管理依赖、添加命令入口点、以及如何安装到用户全局环境(uv tool install)。 打包分发注意事项:强调pyproject.toml配置和__
2025-06-11 07:50:10
10
原创 大模型系列——大模型核心技术解析:参数量、量化、Zero版本与模型蒸馏
本文深入解析大模型四大核心技术:参数量、量化、Zero版本与模型蒸馏。参数量决定模型规模(如1.5b至671b),与性能呈幂律关系但面临显存与计算挑战。量化技术(如W4A16)通过降低精度(FP32→INT8)显著提升效率,需在精度损失与性能间权衡。Zero版本保留原始训练目标,适合创意生成但可能产生"幻觉"。模型蒸馏通过知识迁移训练小模型,实现85%以上性能保留。四种技术各具优势,需根据研发阶段、硬件限制和应用场景灵活组合,推动高效AI系统构建。未来MoE架构等技术将进一步优化这一平衡
2025-06-10 07:57:33
515
原创 大模型系列——通过 MCP 服务对接 PostgreSQL 取数
本文详细介绍了如何通过MCP服务对接PostgreSQL数据库,实现AI智能查询功能。操作步骤包括:1)使用1Panel v2.0搭建Linux运维面板;2)部署MaxKB企业AI助手;3)从mcp.so获取PostgreSQL配置;4)在1Panel中创建MCP服务并配置数据库连接;5)在MaxKB工作流中集成MCP服务组件。最终实现AI自动生成SQL、查询数据库并整理结果返回用户的完整流程。整个过程涉及服务器环境配置、服务部署和系统集成,为构建智能数据查询系统提供了完整解决方案。
2025-06-10 07:56:00
152
原创 大模型系列——Trae创建一个MCP Server 并调用
摘要:Trae作为字节推出的AI原生IDE,最新版本支持智能体系统、MCP工具链和智能上下文三大功能,成为国内首个支持MCP协议的AI开发环境。教程演示如何利用Trae创建MCP Server:通过Coze工作流获取头条新闻素材,使用AI Coding快速编写MCP服务代码,最终实现Agent自动调用MCP生成日报网页。重点展示了非流式调用方案,需通过三个接口异步获取数据,Trae的Builder模式能自动生成符合规范的代码结构。
2025-06-09 21:37:49
13
原创 大模型系列——使用 StarRocks 作为向量数据库
本文介绍了如何将高性能分析数据库StarRocks作为向量数据库使用。主要内容包括:安装必要库文件,加载并拆分Markdown文档为标记,配置StarRocks实例参数(端口、主机、用户等),将文档嵌入向量数据库,以及构建问答系统进行查询测试。StarRocks凭借其快速向量化执行引擎,在OLAP场景下表现出色,能够高效处理文档检索任务。通过示例展示了从文档加载到实际查询的完整流程,最终成功实现了基于StarRocks的问答系统。
2025-06-09 21:36:49
100
原创 大模型系列——在本地计算机上利用AnythingLLM构建DeepSeek大模型本地知识库
本地部署DeepSeek大模型知识库指南 本文详细介绍了在Windows系统上使用Ollama、DeepSeek和AnythingLLM搭建本地知识库的全流程。首先通过Ollama官网或百度网盘下载安装Ollama,并验证安装成功;接着安装1.5B参数的DeepSeek模型;最后安装AnythingLLM桌面应用,配置Ollama作为LLM提供商,创建知识库工作区并上传文档。整个过程提供了完整的图文指导,包括安装步骤截图、命令行验证方法和配置界面说明,帮助用户快速构建本地化的大模型知识库系统。
2025-06-09 08:12:07
14
原创 大模型系列——在本地计算机上利用AnythingLLM构建DeepSeek大模型本地知识库
本文介绍了如何在本地计算机上构建DeepSeek大模型知识库。首先下载安装Ollama(1.9MB)和DeepSeek(1.5B)模型,然后配置AnythingLLM作为交互界面。安装过程详细展示了每个步骤的操作方法,包括验证安装、模型测试等。最后演示了如何使用AnythingLLM上传文档与模型交互。所有软件均提供官网和百度网盘(提取码:ziyu)两种下载方式。该方案为本地运行大语言模型提供了完整解决方案。
2025-06-08 18:01:32
14
原创 大模型系列——动动手指几分钟,给微信公众号接入 AI
就这样,有兴趣的可以尝试接入到自己的公众号中,还是很快的。也可以直接关注我的公众号玩一玩试试效果。
2025-06-08 17:59:17
101
原创 大模型系列——GraphRAG基于知识图谱+大模型技术构建的AI知识库系统
GraphRAG是一款融合知识图谱与大模型技术的AI知识库系统,支持文档管理、智能问答和知识检索。其核心特点包括:采用GraphRAG技术增强领域知识理解,支持多格式文档处理,提供个人与企业级知识管理方案。系统涵盖智能对话、知识图谱构建、OCR识别等15项功能,适用于智能客服、企业知识管理、教育科研等场景。通过模块化设计和知识图谱优化,有效解决数据组织难题,提升检索精度与问答准确性。典型应用包括应急管理、医疗等专业领域,帮助用户高效获取结构化知识。
2025-06-04 20:42:33
23
原创 大模型——Dify实现AI智能体工作流实战手册,助你轻松整合大模型应用与开发工具
Dify是一款整合多款大模型与开发工具的低代码AI工作流编排平台。本文详细介绍了Dify的安装配置流程:首先部署OLLAMA本地推理模型(推荐DeepSeek-R1和nomic-embed-text),然后通过Docker安装Dify并进行环境配置。重点演示了如何添加OLLAMA、通义千问等模型供应商,并配置推理、Embedding、Rerank以及语音文本互转模型。与扣子工作流相比,Dify更具技术性,需要手动部署。最后指导用户完成智能体工作流的构建,为开发者提供强大的AI应用整合能力。
2025-06-04 20:41:06
137
原创 大模型——Prompt Engineering 提示词工程
定义:Prompt Engineering 是设计和优化输入提示(prompt)以获得预期输出的过程。在与大型语言模型交互时,如何构造提示会显著影响模型的回答质量。简单提示:“告诉我关于猫的事情。优化提示:“请详细描述猫的生物学特征、行为习惯以及它们在不同文化中的象征意义。通过优化提示,用户可以引导模型生成更详细和有用的回答。
2025-05-27 21:01:00
44
原创 大模型系列——6个最好用的LLM应用开发框架
在开发LLM应用和MAS时,我们需要验证LLM输出,监控我们的代理,并与各种工具和服务集成。本文将分享一些用于构建这类应用的有用工具和库。人工智能正在占领当今的技术世界。每个人都需要将人工智能集成到他们的业务中,开发人工智能应用等。我不是来解释什么是人工智能、它的子领域或什么是LLM——这些废话。让我们直接进入主题。我的话题是生成式人工智能和代理式人工智能,特别是LLM和多代理系统(MAS)。在开发LLM应用和MAS时,我们需要验证LLM输出,监控我们的代理,并与各种工具和服务集成。
2025-05-26 22:02:00
36
原创 大模型系列——8个最受欢迎的AI爬虫工具
无论你是在构建应用程序、研究一些很酷的东西还是创建营销活动,AI驱动的抓取工具都可以成为你收集实时数据的秘密武器。作为一名软件开发人员,我必须保持技能敏锐。最好的方法是构建模拟应用程序。问题是我经常缺乏真正的用户和数据。这就是人工智能网页抓取工具派上用场的地方。它们帮助我获得真实数据以纳入项目。我最近制作了一个公寓比较工具。这个工具的灵感来自于我在看了很多不错的公寓后,无法根据需求(而不是纯粹的美学)做出理性的决定。
2025-05-26 22:01:09
361
原创 大模型系列——Dify结合MCP实现数据库查询
今天我们来看Dify结合MCP查询数据库,这里我们用到了一个查询数据库的服务,其实之前我们也有一篇讲text2sql的案例,但是因为我们表结构作为知识库,需要我们把这个表结构做的很丰富,确保能够更精准的生成相应的SQL语句,今天介绍的MCP查询数据库会更灵活一些。MCP服务其实在现阶段,Dify的支持还是欠缺了点,使用的感受还是不如其他的一些客户端,比如我用的cherry studio,这个给我感觉会更兼容一些,使用起来会更方便一些,就是cursor也很好用,有空我也会去介绍一下这些工具的使用。
2025-05-24 21:31:58
234
原创 大模型系列——MiMo:高效数学推理与代码生成的小型开源模型
MiMo 是小米公司开发的一个开源大语言模型项目,专注于数学推理和代码生成。核心产品是 MiMo-7B 系列模型,包含基础模型 (Base)、监督微调模型 (SFT)、从基础模型训练的强化学习模型 (RL-Zero) 和从 SFT 模型训练的强化学习模型 (RL)。这些 70 亿参数模型通过优化预训练数据、多重令牌预测 (MTP) 和强化学习,展现出媲美更大模型的推理能力。MiMo-7B-RL 在数学和代码任务中性能突出,可匹敌 OpenAI o1-mini。模型支持vLLM。
2025-05-24 21:30:48
19
原创 大模型系列——Step1X-Edit:自然语言指令编辑图像的开源工具
Step1X-Edit 是一个开源图像编辑框架,由 Stepfun AI 团队开发,托管于 GitHub。它结合多模态大语言模型(Qwen-VL)和扩散变换器(DiT),让用户通过简单的自然语言指令编辑图像,例如更改背景、移除物体或转换风格。项目于 2025 年 4 月 25 日发布,性能接近闭源模型如 GPT-4o 和2 Flash。Step1X-Edit 提供模型权重、推理代码和 GEdit-Bench 基准测试,支持广泛的编辑场景。
2025-05-24 21:29:59
15
原创 大模型系列——Trae IDE 指南:轻松配置自定义 AI 规则 (Trae Rules)
Trae Rules 是一项强大的功能,它允许开发团队或个人开发者自定义并强制 AI 在代码生成、解释或修改时遵循特定的代码风格和最佳实践。设想一个常见情景:开发者在使用 AI 进行编程辅助时,可能需要反复向 AI强调相同的指令,例如代码的语言风格、项目必须遵循的框架约束、注释的详细程度与格式,或是需要遵守的安全合规条例等。Trae Rules 功能通过为 AI 预先设定这些行为规范,使得 AI 在每次响应时都能自动“读取”并遵循这些预设规则。
2025-05-24 21:29:22
179
原创 大模型系列——探索AI如何革新你的阅读体验,腾讯ima和DeepSeek的书架分类大比拼。
针对这个这些问题,有大模型就是一个比较好的解决方案,比如大模型会根据读者阅读书的分布情况进行动态分类,面对新书、跨学科书籍、文学作品以及抽象主题上,准确性与稳定性显著优于规则分类。最近使用ima比较多,结合个人阅读的场景,在家里有书柜就是一个分类问题,对于线上书架的书很多需要整理是一个问题,怎么样通过AI处理呢?然后我们找到书架的地方,点击右上角的ima,提问:帮我整理书架上的书,进行分类,要求符合mece原则。那么我们可以在当前的分类里再加入一个AI分类,可以看看用户的选择更加偏向于哪一个。
2025-05-16 07:54:14
156
原创 大模型系列——实现高效AI应用开发:LangChain、LLamaIndex 、HuggingFace
在大数据时代,如何快速、准确地从海量的原始数据中提取出有价值的信息,并进行总结与分析,是企业在运营决策中面临的一个重要问题。在这种情况下,和LLamaIndex的组合能够极大提升数据分析效率。例如,在某些数据挖掘任务中,LLamaIndex可以负责快速整理和索引大量的结构化和非结构化数据,而可以用来对这些数据进行自然语言生成,自动生成分析报告或摘要。例如,企业可以利用生成销售数据的趋势分析报告,通过LLamaIndex快速从数据库中检索到相关数据,确保分析结果的时效性和准确性。
2025-05-16 07:53:28
35
原创 大模型系列——模型上下文提供者(MCP)如何赋能AI智能体
模型上下文提供者(MCP)作为AI系统中的智能调度层,通过动态选择与用户请求相关的工具,显著提高了AI助手的效率和准确性。它不仅减少了提示词大小,还提高了模型响应速度和决策质量。随着AI工具生态系统的不断扩大,MCP的重要性将越来越突出,成为构建高效AI系统的关键组件。
2025-05-15 08:02:22
414
原创 大模型系列—— FastGPT 知识库无缝集成到 n8n 工作流
在讨论这类低代码/无代码自动化工具时,一个常见的问题是:为什么不直接用代码实现?对于熟悉编程的开发者来说,用代码似乎更直接、更可控。确实,n8n 这类工具存在一定的学习曲线,初期上手可能需要投入一些时间。然而,一旦熟练掌握,其构建和迭代工作流的效率往往远超传统代码开发,特别是在涉及集成多个 API 和服务的场景下。n8n 强大的节点生态和社区支持能够满足从简单到复杂的各种自动化需求,让想法快速落地。当然,对于需要高度定制、极致性能或涉及复杂底层逻辑的企业级项目,纯代码开发仍然是必要的。
2025-05-15 08:01:17
43
原创 大模型系列——Trae创建一个MCP Server 并调用
从个人体验下来的感觉,对比 Deepseek v3 和 r1 的模型,Builder with MCP这里的执行,选择 Doubao-1.5-pro 效果更好,豆包对关联的 MCP Server 和对应的 Tools 的理解和使用更准确,而 Deepseek 有编码偏向性而忽略去使用可用的 MCP Server。,且 Agent with MCP 的设计,可以同时创建多个场景下的 Agent,并关联不同 MCP Server,免去了其他 MCP Client 需要根据任务不时的去增删服务的繁琐操作。
2025-05-14 22:18:01
57
原创 大模型系列——Crawl4AI为 LLM 和 RAG 准备高质量网页数据
传统网络爬虫框架功能多样,但在处理数据时常需要额外进行清洗与格式化,这使得它们与大语言模型(LLM)的集成相对复杂。许多工具的输出(如原始HTML或未结构化的JSON)包含大量噪声,不适合直接用于检索增强生成(RAG)等场景,因为这会降低LLM处理的效率和准确性。Crawl4AI 提供了一种不同的解决方案。它专注于直接生成干净、结构化的Markdown格式内容。这种格式保留了原文的语义结构(如标题、列表、代码块),同时智能地去除了导航、广告、页脚等无关元素,非常适合作为LLM的输入或用于构建高质量的。
2025-05-14 22:17:13
134
原创 大模型系列——RAG 实战用 StarRocks + DeepSeek 构建智能问答与企业知识库
RAG(Retrieval-Augmented Generation,检索增强生成)是一种结合外部知识检索与 AI 生成的技术,弥补了传统大模型知识静态、易编造信息的缺陷,使回答更加准确且基于实时信息。
2025-05-06 20:53:35
49
原创 大模型系列——使用coze搭建基于DeepSeek大模型的智能体实现智能客服问答
扣子(coze)是新一代 AI 应用开发平台。无论你是否有编程基础,都可以在扣子上快速搭建基于大模型的各类 AI 应用,并将 AI 应用发布到各个社交平台、通讯软件,也可以通过 API 或 SDK 将 AI 应用集成到你的业务系统中。借助扣子提供的可视化设计与编排工具,你可以通过零代码或低代码的方式,快速搭建出基于大模型的各类 AI 项目,满足个性化需求、实现商业价值。点击下方+添加节点,添加一个大模型节点,进行如下连接。单击大模型节点,在右侧可以设置该节点相关信息,首先改名成总结大模型。
2025-05-06 20:21:00
189
原创 大模型系列——模型上下文提供者(MCP)如何赋能AI智能体
模型上下文提供者(MCP)作为AI系统中的智能调度层,通过动态选择与用户请求相关的工具,显著提高了AI助手的效率和准确性。它不仅减少了提示词大小,还提高了模型响应速度和决策质量。随着AI工具生态系统的不断扩大,MCP的重要性将越来越突出,成为构建高效AI系统的关键组件。
2025-05-05 16:55:34
41
原创 大模型系列——InternVL开源多模态大模型,支持图像、视频和文本处理
InternVL 是由上海人工智能实验室(OpenGVLab)开发的一个开源多模态大模型项目,托管在 GitHub 上。它集成了视觉和语言处理能力,支持图像、视频和文本的综合理解与生成。InternVL 的目标是打造一个媲美商业模型(如 GPT-4o)的开源替代品,广泛应用于视觉感知、跨模态检索和多模态对话等任务。该项目以其强大的视觉编码器、动态高分辨率支持和高效训练策略著称,模型规模从 1B 到 78B 参数不等,适合从边缘设备到高性能服务器的多种应用场景。
2025-05-01 09:44:47
62
原创 大模型系列——RAG架构大揭秘:三种方式让AI回答更精准,更懂你!
但如果问题超出了它的知识范围,它可能就无能为力了。而RAG技术就像是一个“开卷考试”的学生,它不仅可以利用自己学到的知识,还能随时查阅一个巨大的“知识库”,从中找到最相关的资料,然后结合这些资料生成一个更准确、更丰富的回答。这就像是在一个巨大的图书馆里,你只需要说出你想要找的书的主题,系统就能立刻帮你找到最相关的几本书,并且还能告诉你哪些章节是你最需要看的。它的工作方式是这样的:当你问它一个问题时,它会从知识库中找出一些和你的问题最相似的文档,然后把这些文档和你的问题拼接在一起,扔给语言模型去生成回答。
2025-05-01 09:32:12
470
原创 大模型系列——RAG进阶Embedding Models嵌入式模型原理和选择
主要用于训练和评估模型:根据一段文章回答相关的问题。**BGE-M3:**北京智源研究院开发,支持多语言、混合检索(稠密+稀疏向量),处理 8K 上下文,适合企业级知识库。**NV-Embed-v2:**基于 Mistral-7B,检索精度高(MTEB 得分 62.65),但需较高计算资源。**训练方法:**对比学习(如 Word2Vec 的 Skip-gram/CBOW)、预训练+微调(如 BERT)。**上下文依赖:**现代模型(如 BGE-M3)动态调整向量,捕捉多义词在不同语境中的含义。
2025-05-01 09:30:13
170
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人