自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(113)
  • 收藏
  • 关注

原创 MateChat 智能应用:落地实践与创新探索之给企业CRM系统嵌入MateChat智能助手

本文介绍了在企业CRM系统中嵌入MateChat智能助手的实践过程。针对销售团队存在的三大效率痛点(信息查询繁琐、重复问答耗时、工单创建复杂),MateChat凭借即插即用、VUE技术栈适配、多模型兼容等优势成为理想解决方案。通过三步集成:1)部署Ollama服务与本地模型;2)配置MateChat连接业务接口;3)自定义对话逻辑实现CRM功能调用,显著提升了操作效率。实测表明,该方案开发周期短(2天)、业务适配性强,为B端系统智能化提供了可复用的技术路径。

2025-11-19 16:02:51 1342 69

原创 零基础学AI大模型之Milvus部署架构选型+Linux实战:Docker一键部署+WebUI使用

本文介绍了Milvus向量数据库的部署架构选型和实战操作。首先对比了三种核心部署方案:轻量级Milvus Lite适合快速原型开发,单机版适合中小项目,分布式版满足企业级需求。对于新手推荐使用Docker一键部署单机版,并详细讲解了Linux环境下通过Docker Compose的安装步骤和验证方法。文章还演示了如何通过WebUI管理Milvus,包括集合创建、数据插入和向量搜索等基本操作。最后提供部署架构选型建议,帮助开发者根据项目规模选择合适的方案,从开发测试到生产环境实现平滑过渡。

2025-11-13 21:00:25 1830 53

原创 零基础学AI大模型之Milvus核心:分区-分片-段结构全解+最佳实践

摘要 本文深入解析Milvus向量数据库"分区-分片-段"三层核心架构。通过图书馆管理的通俗比喻:分区对应主题楼层(逻辑划分),分片是平行书架(物理分布),段则是书架上的图书组合(存储优化)。这种分层设计实现了海量向量数据的高效组织与检索。文章还提供了实际场景下的最佳实践方案,帮助开发者理解如何利用这三层结构提升系统性能。作为"零基础学AI大模型"系列的第27篇,延续了对向量数据库技术的系统性讲解。

2025-11-13 20:57:22 1121 53

原创 零基础学AI大模型之Milvus向量数据库全解析

摘要 本文介绍了Milvus向量数据库的核心概念和应用场景。Milvus是一款高性能、可扩展的开源向量数据库,专门用于存储和检索高维向量数据,支持从单机到分布式系统的全场景部署。文章从三个方面展开:首先解释Milvus作为AI大模型生态核心存储组件的定位,其次分析其千亿级向量存储、亚秒级查询等核心特性与性能指标,最后介绍从轻量版到分布式集群的多种部署方式选择。文章特别强调Milvus在RAG技术链路中的关键作用,以及与传统关系型数据库在处理非结构化数据上的差异,为读者提供向量数据库选型的技术参考。

2025-11-10 20:25:05 1126 49

原创 零基础学AI大模型之向量数据库介绍与技术选型思考

摘要 本文探讨了向量数据库在AI大模型中的关键技术选型问题。首先分析了传统数据库(如MySQL)存储高维向量的三大局限:维度灾难导致索引失效、缺乏高效相似度计算能力、实时性与扩展性不足。随后阐述了向量数据库的核心能力,包括高效相似性检索、实时数据处理和大规模扩展性。通过对比SQL查询与向量检索的差异,指出向量数据库在语义匹配场景的独特优势。文章为开发者提供了技术选型参考,强调向量数据库是支撑RAG系统实时检索的关键组件。

2025-11-10 20:17:22 1077 43

原创 零基础学AI大模型之嵌入模型性能优化

前情摘要1、零基础学AI大模型之读懂AI大模型2、零基础学AI大模型之从0到1调用大模型API3、零基础学AI大模型之SpringAI4、零基础学AI大模型之AI大模型常见概念5、零基础学AI大模型之大模型私有化部署全指南6、零基础学AI大模型之AI大模型可视化界面7、零基础学AI大模型之LangChain8、零基础学AI大模型之LangChain六大核心模块与大模型IO交互链路9、零基础学AI大模型之Prompt提示词工程10、零基础学AI大模型之LangChain-PromptTemplate。

2025-11-08 11:52:37 1183 47

原创 零基础学AI大模型之LangChain Embedding框架全解析

摘要:本文是"工藤学编程"博主关于LangChain Embedding框架的深度解析。文章首先指出Embedding模块的核心价值在于解决模型适配难题,通过标准化接口统一不同Embedding模型的调用方式。然后详细介绍了LangChain Embedding的两个核心功能:接口统一和实现多样化,以及这种设计带来的开发优势。最后从源码层面解析了Embedding的"标准协议",展示了抽象基类的关键代码实现。该系列文章为零基础学习AI大模型提供了系统化的知识体系。

2025-11-08 11:43:09 1212 42

原创 零基础学AI大模型之Embedding与LLM大模型对比全解析

摘要:本文深入解析文本嵌入(Embedding)与大语言模型(LLM)的核心差异与协作关系。通过类比“语义地图”形象说明Embedding如何将文字转换为可计算的向量坐标,实现语义相似度判断。文章对比了两者的关键特性:Embedding专注语义编码(固定维度、高效检索),LLM侧重文本生成(上下文理解、创造性输出)。结合RAG系统实例,展示了二者如何分工协作——Embedding负责快速筛选知识片段,LLM进行深度加工。最后探讨了开源与商用Embedding模型的选择策略及典型应用场景。

2025-11-06 20:22:00 1235 48

原创 零基础学AI大模型之LangChain文本分割器实战:CharacterTextSplitter与RecursiveCharacterTextSplitter全解析

本文介绍了LangChain中的文本分割器CharacterTextSplitter和RecursiveCharacterTextSplitter的核心原理与实战应用。文章首先阐述了文本分割的必要性,包括适配大模型输入限制、提升检索精度和减少语义丢失。然后详细讲解了CharacterTextSplitter的固定长度切割特性及其参数配置,并提供了按空格分割长文本的实战案例。此外,还介绍了更智能的RecursiveCharacterTextSplitter的递归分割原理及其在保留语义完整性方面的优势。

2025-11-06 20:17:33 1153 39

原创 零基础学AI大模型之RAG系统链路构建:文档切割转换全解析

本文介绍了AI大模型实战中的文档转换与切割技术,重点讲解了RAG系统中文档预处理的重要性。文章从三个核心痛点(模型token限制、信息密度不均、格式混乱)出发,分析了文档切割转换的必要性,并详细解读了LangChain中的文档转换器(Document Transformers)功能与实现方式。通过TextSplitter抽象类及其子类的源码解析,展示了如何实现文本分块、去噪处理和元数据增强三大核心任务,为RAG系统的向量化和检索环节提供标准化数据预处理方案。

2025-11-04 20:07:24 1180 51

原创 零基础学AI大模型之LangChain WebBaseLoader与Docx2txtLoader实战

本文介绍了LangChain中的WebBaseLoader和Docx2txtLoader两大文档加载工具,用于从网页和Word文档中提取文本构建RAG系统知识库。WebBaseLoader通过BeautifulSoup解析静态网页内容,需设置USER_AGENT避免反爬;Docx2txtLoader则直接处理.docx文件,保留基础格式。文章通过代码实例演示了单网页、多网页加载以及Word文档提取的实现方法,并强调了两者在企业知识管理中的实际应用价值。

2025-11-04 20:05:20 1442 48

原创 深入Rust:Tokio多线程调度架构的原理、实践与性能优化

本文深入剖析了Rust生态中Tokio运行时的多线程调度架构。Tokio通过"Reactor+Worker+阻塞线程池"三层设计,实现了高性能异步任务处理:Reactor监听IO事件,Worker线程池通过任务窃取机制均衡负载,阻塞线程池隔离非异步任务。文章详细解析了各组件的协同流程,并揭示了Tokio的优化细节,如任务优先级调度、本地队列的SPMC设计等,这些创新使Tokio成为Rust异步生态的事实标准运行时。

2025-10-30 12:38:25 1334 50

原创 深入Rust:async/await语法糖的底层展开原理与实战指南

本文深入解析Rust中async/await语法糖的底层原理,首先揭示其本质是Future trait的语法糖,所有async函数都会被编译成实现Future的结构体。通过手动实现DelayFuture的示例,展示无语法糖时的复杂状态管理,进而对比async/await自动生成状态机的优势。重点剖析async函数被编译为匿名Future结构体的过程,包括状态标记、局部变量保存和执行步骤管理,说明await实际是对Future::poll方法的调用。文章旨在帮助开发者从原理层面理解异步编程机制,写出更高效可靠

2025-10-30 12:37:04 1040 9

原创 深入Rust:迭代器适配器的设计原理、实战指南与性能优化

本文深入探讨了Rust中的迭代器适配器,重点解析其设计原理、应用场景和性能优势。文章通过对比传统循环和适配器链式调用的代码差异,展示了适配器在减少内存占用和提高代码可读性方面的优势。核心内容包括: 适配器本质:实现了Iterator trait的结构体,具备惰性求值、零临时存储和类型安全三大特性。 底层机制:通过类型嵌套和next()触发传递实现高效处理,数据仅遍历一次。 分类讲解:重点介绍了map、flat_map和filter_map等高频转换型适配器,通过代码示例演示其应用场景和性能差异。 文章强调适

2025-10-30 12:34:56 828 2

原创 深入Rust:惰性求值机制的原理、实践与性能优化

摘要 Rust通过显式工具实现惰性求值,优化性能与内存效率。核心机制包括: 迭代器惰性:map/filter等适配器封装计算逻辑,仅当调用next()时按需处理元素,避免无用计算(如仅处理百万数据的前10条); lazy_static!:延迟静态变量初始化至首次访问,通过Once保证线程安全,减少启动开销(如配置文件加载); Future惰性:异步任务需主动触发(如.await)才会执行。实践场景包括无限序列生成、资源延迟加载等,需注意避免重复计算和线程安全问题。

2025-10-30 12:32:22 709 2

原创 深入Rust:Box、Rc、Arc智能指针机制解析与实践指南

本文深入解析了Rust中三种核心智能指针(Box、Rc、Arc)的机制与实践应用。Box用于单一所有权的堆存储,解决递归类型、trait对象和大数据存储问题;Rc通过引用计数实现单线程下的共享只读数据,需注意循环引用风险;Arc是线程安全的Rc版本。文章从底层原理到典型场景,结合代码示例,帮助开发者合理选用智能指针以补充Rust所有权规则,同时规避常见内存管理陷阱。

2025-10-30 12:29:46 1040 13

原创 深入Rust:Vec的内存布局与扩容策略解析

本文深入解析Rust中Vec的内存布局与扩容策略。Vec由栈上控制字段(指针、长度、容量)和堆上连续存储区组成,零大小类型有特殊优化。扩容采用分阶段策略:小容量翻倍,大容量1.5倍增长,通过摊还时间复杂度O(1)保证性能。实践部分提供了3个优化技巧:观察扩容过程验证原理、预分配容量避免性能损耗、使用shrink_to_fit释放多余内存。理解这些底层机制有助于编写更高效的Rust代码,其核心思想也适用于其他集合类型。掌握内存布局和扩容策略是优化Rust程序性能的关键。

2025-10-30 00:10:16 2544 49

原创 仓颉并发集合实现:鸿蒙高并发场景的容器化解决方案

仓颉并发集合框架为鸿蒙高并发场景提供了容器化解决方案,通过分层同步策略(无锁、分段锁、全局锁)平衡安全性与性能,适配鸿蒙协程调度模型并优化接口设计。核心并发集合包括ConcurrentList(分段锁动态数组)、ConcurrentHashMap(分段锁+无锁哈希表)和AtomicQueue(无锁队列),分别针对随机访问、键值存储和生产消费场景优化,性能显著优于传统加锁方案。开发者可无缝替换普通集合,实现安全高效的并发数据管理。

2025-10-29 13:22:17 1396 45

原创 仓颉原子操作封装:从底层原理到鸿蒙高并发实战

仓颉语言为鸿蒙高并发场景设计了高效的原子操作API,通过硬件指令封装、类型安全检查和隐式内存屏障,提供无锁同步能力。核心接口包括原子读写(load/store)、增量操作(increment/add)、比较交换(CAS)等,支持构建高性能无锁数据结构。实测显示,原子操作比传统锁机制性能提升3倍,延迟降低60%,适用于传感器数据采集、服务器计数器等场景,是实现鸿蒙高并发的关键技术。

2025-10-29 13:11:48 1313 60

原创 仓颉反射API深度解析:从原理到鸿蒙生态实战

仓颉反射API在鸿蒙生态中通过编译期元数据预生成、权限沙箱机制和泛型反射支持,实现了类型安全和动态能力的平衡。其核心功能包括类型元数据获取(支持类名、实例或直接类型)、对象成员动态操作(变量读写和方法调用)等。仓颉反射通过静态类型检查减少运行时错误,同时支持鸿蒙应用的动态配置和插件化开发。实战中推荐缓存频繁使用的类型元数据以提高性能。

2025-10-29 13:00:21 829 1

原创 仓颉语言线程安全保证机制:从原理到实战的深度解析

仓颉语言针对鸿蒙生态开发中的多线程/协程并发问题,提出了三层线程安全防护机制:用户态轻量锁(适用于短时临界区操作)、内存屏障与原子类型(保障跨线程数据一致性)以及内核级锁(处理长时间资源竞争)。该体系通过N:M协程模型优化,结合协程调度特性,在保证线程安全的同时兼顾性能,并提供了易用的API接口。实战案例证明其能有效解决数据竞争、内存可见性等问题,为鸿蒙开发者提供了完整的并发安全解决方案。

2025-10-29 12:54:41 979 2

原创 探索仓颉语言:揭秘协程调度机制的奥秘

仓颉语言作为鸿蒙生态的核心编程语言,采用N:M协程调度模型,通过用户态调度和智能任务分配策略实现高并发性能。其调度机制结合协程池复用、动态资源调整等特性,使上下文切换开销降至0.5微秒,远优于传统线程的5微秒。与Kotlin协程相比,仓颉更注重底层性能优化和分布式场景适配,而非依赖虚拟机调度。这种设计使仓颉在百万级并发场景下实现CPU利用率80%-90%,特别适合鸿蒙生态的高并发需求。

2025-10-29 12:44:26 832

原创 仓颉中的异步编程语法糖:解锁高效开发新姿势

仓颉语言通过创新的异步编程语法糖(如async/await和AsyncGroup)显著提升了开发效率与程序性能。其特色包括零成本抽象、结构化并发管理和灵活的并发控制,有效解决了传统异步编程的回调地狱、资源泄露等问题。实际应用中,该语法糖在网络请求并发处理和批量文件异步读写等场景展现出高效性,同时通过结构化错误处理机制保障了代码稳健性。仓颉的异步设计实现了编程逻辑线性化,大幅降低了理解与维护成本,为现代高并发应用开发提供了优雅而强大的解决方案。

2025-10-29 12:33:58 664 1

原创 零基础学AI大模型之LangChain PyPDFLoader实战与PDF图片提取全解析

摘要:本文聚焦LangChain中的PyPDFLoader工具,系统讲解其在RAG系统中的PDF文档处理能力。首先介绍PyPDFLoader的核心价值:自动分页解析、元数据保留和按需加载功能。随后通过三个实战场景演示:1)加载完整PDF并查看基础信息;2)按需加载指定页码;3)提取PDF中的图片内容。文章还详细说明了安装步骤、常见问题排查方法,并附有代码示例,帮助开发者快速掌握PDF文档处理的关键技术,为构建RAG系统奠定数据基础。

2025-10-22 21:11:17 1893 113

原创 零基础学AI大模型之RAG系统链路解析与Document Loaders多案例实战

本文深入解析RAG(检索增强生成)技术体系,通过"数据准备→检索生成"双阶段架构解决大模型"幻觉"问题。重点剖析文档加载器(Document Loaders)的核心作用,展示如何将PDF、网页等多源数据转为统一格式,并详细讲解LangChain的BaseLoader接口设计原理。文章配有完整的RAG数据流示意图和LLM交互架构图,帮助读者理解从原始数据到向量检索再到生成回答的完

2025-10-18 21:00:26 1384 48

原创 零基础学AI大模型之RAG技术

RAG(Retrieval-Augmented Generation,检索增强生成)是一种“先检索、再生成”的AI技术架构——先从外部知识库(比如文档、数据库)里找到和问题相关的“靠谱资料”,再把这些资料和问题一起喂给大模型,让模型基于真实信息生成回答,而不是靠自己“脑补”。简单说:传统大模型是“凭记忆答题”,RAG是“先翻书再答题”,自然不容易出错~

2025-10-18 20:57:40 1153 56

原创 零基础学AI大模型之大模型的“幻觉”

本文介绍了AI大模型中的"幻觉输出"现象及其应对策略。文章首先定义了幻觉输出是指模型生成看似合理但实际错误的内容,并列举了四种常见表现:虚构事实、错误推理、过度泛化和矛盾内容。接着分析了产生幻觉的三大原因:训练数据局限性、基于概率的生成机制以及模型过度创造倾向。通过医疗和金融领域的真实案例,展示了幻觉可能造成的严重后果。最后提出了缓解方案,包括技术层面的检索增强生成(RAG)和微调对齐,以及用户侧的双重验证等实用建议。作者强调目前无法完全消除幻觉,但可以通过这些方法有效降低风险。

2025-10-13 21:54:29 1116 49

原创 零基础学AI大模型之大模型修复机制:OutputFixingParser解析器

本文介绍了LangChain中的OutputFixingParser解析器,它能够自动修复大模型输出的格式错误,确保结构化数据的正确解析。文章从核心功能、工作原理到本地环境配置(使用deepseek-r1:7b模型)进行了详细说明,并提供了基础使用步骤和实战案例。通过Pydantic数据模型定义和OutputFixingParser的配合使用,可以有效处理模型输出中的格式问题(如单引号JSON、字段缺失等),提高应用稳定性。文中包含完整代码示例,演示了如何修复并解析格式错误的模型输出,特别适合需要处理大模型

2025-10-13 21:53:01 473 59

原创 零基础学AI大模型之LangChain Output Parser

文章首先通过实际场景对比,解释了为什么需要Output Parser:将大模型的非结构化文本输出转换为结构化数据(如列表、JSON),便于工程化开发。教程详细介绍了Output Parser的工作原理(格式引导+结构化转换)和核心接口(parse、parse_with_prompt、get_format_instructions)。最后提供了基础代码框架,包括环境准备、解析器导入和Prompt构建,

2025-10-12 14:00:15 1115 54

原创 零基础学AI大模型之解析器PydanticOutputParser

文章摘要 本文介绍了Pydantic解析器在AI大模型开发中的应用,重点解决非结构化文本到结构化数据的转换问题。内容包含两个实战案例:1)使用PydanticOutputParser提取用户信息,展示如何定义数据模型、创建解析器并验证输出;2)电商评论情感分析系统案例(代码未完整展示)。文章强调Pydantic解析器在结构化输出、数据验证和提高开发效率方面的优势,并提供完整的环境配置和代码示例,适合开发者学习如何将大模型输出转换为可编程对象。作者工藤学编程还分享了系列AI大模型教程资源。 (字数:149)

2025-10-12 13:52:06 1207 36

原创 零基础学AI大模型之Stream流式输出实战

在之前的LangChain实战中,我们调用大模型时都是「一次性获取完整结果」——比如生成一篇文案、回答一个问题,需要等模型把所有内容生成完才返回。但在实际场景中(如ChatGPT聊天界面、长文本生成),这种方式会让用户面对“空白加载页”等待几秒甚至更久,体验大打折扣。本文将聚焦LLM的Stream流式输出,从核心原理讲起,通过“故事小助手”“科普助手”两个实战案例,带你掌握从基础调用到LCEL表达式的流式落地,最后分析流式输出的优劣势与实战注意事项。LLM的流式输出本质是基于HTTP流式传输。

2025-10-09 21:22:10 1781 47

原创 零基础学AI大模型之LangChain链

本文介绍了LangChain中Chain(链)的核心概念,重点讲解LLMChain基础链的实现方式。Chain类似Java中的责任链模式,可将多个处理单元有序组合,实现端到端的AI任务流程。

2025-10-09 21:19:56 1465 54

原创 零基础学AI大模型之LangChain聊天模型多案例实战

模板设计:简单场景用直接定义组合模板;复杂场景用拆单角色模板,再用整合;合规控制:将规则(如禁止内容、转人工条件)写在systemprompt中,用“清单式描述”(1.2.3.)让LLM更易理解;参数化:把“可变信息”(领域、企业名、用户等级)设为参数,避免硬编码,提升模板复用性。

2025-09-30 10:40:18 1452 62

原创 零基础学AI大模型之ChatModel聊天模型与ChatPromptTemplate实战

《ChatModel聊天模型与Prompt模板实战》 本文是"零基础学AI大模型"系列的第10篇,聚焦多轮对话场景的核心技术。ChatModel是专为对话优化的智能系统,具备5大特性:上下文感知、角色扮演、意图识别、情感分析和安全过滤。与传统Text Model相比,ChatModel采用结构化消息序列(System/User/Assistant)自动管理对话历史,更适用于客服、助手等交互场景。文章详细解析了三重角色体系(系统角色定义行为准则、用户角色承载输入、助手角色维护连贯性),并提

2025-09-30 10:01:40 1284 45

原创 零基础学AI大模型之LangChain-PromptTemplate

LangChain PromptTemplate核心用法与实战 本文是"零基础学AI大模型"系列第9篇,聚焦LangChain中PromptTemplate的核心用法。PromptTemplate是构建带占位符提示词模板的工具,能动态组装内容并避免硬编码。文章通过3个关键变量(template、input_variables、partial_variables)和2个常用方法(format、from_template)的讲解,配合4个实战案例,从基础到进阶演示了PromptTemp

2025-09-28 21:33:23 1103 42

原创 零基础学AI大模型之Prompt提示词工程

本文是"零基础学AI大模型"系列的第9篇,重点讲解Prompt提示词工程的核心技能。文章从基础概念入手,将Prompt比作"给AI的任务需求文档",强调其作为"让AI听话"的关键作用。通过差/优案例对比,详细拆解提示词设计的四要素:角色设定、任务描述、格式规范和约束条件,并提供了可直接套用的"三段式黄金模板"。内容紧密结合该系列前8篇文章的技术栈(如SpringBoot、LangChain等),帮助读者将模糊需求转化为AI

2025-09-28 21:08:26 1258 42

原创 零基础学AI大模型之LangChain六大核心模块与大模型IO交互链路

摘要 本文系统介绍了LangChain六大核心模块及其与大模型的交互链路,采用Java生态类比方式帮助开发者快速理解。主要内容包括: 六大核心模块解析: Models模块:统一接口对接不同大模型(如OpenAI/DeepSeek),类似JDBC对接不同数据库 Prompts模块:管理Prompt模板,支持动态传参,类比Thymeleaf模板引擎 Chains模块:串联多组件自动执行任务链,类似Spring Batch工作流 Memory模块:保存对话历史,类似HTTP Session管理 Indexes模块

2025-09-27 21:09:43 1420 35

原创 零基础学AI大模型之LangChain

本文介绍了LangChain框架及其在AI应用开发中的核心价值。文章首先分析了大模型的三大局限(信息滞后、功能受限、缺乏规划能力)和开发者的痛点,指出单独调用大模型API难以满足复杂需求。随后通过类比SpringCloud和"万能转接器",形象地解释了LangChain作为连接和编排框架的作用。重点剖析了LangChain三大核心组件:Chain(任务链)、Agent(智能代理)和Memory(记忆功能),并通过具体场景说明其应用价值。最后对比Java生态,介绍了LangChain的完整

2025-09-27 20:44:42 1278 44

原创 零基础学AI大模型之AI大模型可视化界面

文章核心围绕 Chatbox+Ollama 对接 DeepSeek-7B 模型展开实战,分步介绍 Chatbox 安装、Ollama 远程访问配置(环境变量设置)、模型参数配置及可视化交互测试(含基础对话、参数调试、对话管理),最后提供工具选型建议:个人 / 小团队优先 Chatbox,企业级应用选 Dify,多模型对比用 Cherry Studio,为零基础读者提供从可视化工具认知到实操落地的完整指南。

2025-09-25 22:25:58 1496 49

原创 零基础学AI大模型之大模型私有化部署全指南

摘要 本文系统介绍了AI大模型私有化部署的两种核心方式:源码部署(技术门槛高但灵活)和应用部署(低门槛快速上手)。重点分析了DeepSeek系列大模型从1.5B到671B不同参数规模的硬件配置要求、性能表现及适用场景,涵盖个人开发到企业级应用的完整选型建议。特别针对Ollama工具提供了详细实操指南,包括模型下载、参数配置等关键步骤,为技术团队提供从理论到实践的完整参考框架。

2025-09-25 22:05:43 1567 61

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除