自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(670)
  • 收藏
  • 关注

原创 LLaMA-Factory与DeepSeek-R1-7B:打造垂直行业大模型(LORA微调)

微调(Fine-tuning)是机器学习中迁移学习的一种关键技术,指在预训练模型的基础上,针对特定任务或数据集进行进一步训练调整的过程。其核心在于利用预训练模型已学习到的通用特征,通过少量数据和计算资源,使模型适应新任务的特定需求。LLama-Factory支持Alpaca和ShareGPT两种格式的数据集,那我先介绍这两种数据格式的区别,搞懂数据结构后才知道数据转换脚本如何去撰写。1)Alpaca数据格式。

2025-04-04 10:00:00 350

原创 白皮书|《2025年大模型应用落地白皮书:企业AI转型行动指南》(附下载)

🔍 核心观点指出,大模型技术已进入与业务深度融合的阶段,64%的中国企业预计对AI的投资将增长10-30%。同时,要破除落地大模型的思维误区,避免将技术指标等同于商业应用成功的指标,关注长期投入下的价值收益,以及大模型落地对数据资产和数据价值发挥的推动作用。🔍 火山引擎大模型服务助力企业省心AI转型,提供了豆包大模型、火山方舟大模型服务平台、扣子、HiAgent等产品和服务。《2025年大模型应用落地白皮书:企业AI转型行动指南》由火山引擎和IDC联合发布,深入探讨了企业AI转型中大模型技术的应用与落地

2025-04-03 14:40:39 308

原创 阿里研究院:2024大模型训练数据白皮书(附完整PDF下载)

报告进一步阐释了高质量数据的标准和评估方法,揭示了高质量数据在提升模型准确性、稳定性和泛化能力方面的作用。特别地,白皮书提出了合成数据作为解决数据供给不足的创新方案,探讨了合成数据的生成方法、分类及其在提升模型训练效率和安全性方面的潜力。此外,白皮书还涵盖了对大模型训练数据治理的深入思考,包括数据合规性、政府与社会力量的协同合作,以及中美在数据获取和利用方面的现状对比。最后,白皮书提出了促进高质量训练数据供给的建议,鼓励政府和社会力量以更开放和务实的方式合作,共同推动人工智能技术的健康发展和产业创新。

2025-04-03 14:24:14 194

原创 零门槛上手!本地部署Ollama+OpenWebUI+Deepseek-R1操作指南

通过以上步骤,我们成功地在本地环境中部署了 Ollama、Open WebUI 和 Deepseek-R1-14b 模型,并配置了相关的 API 接口。这一过程非常适合希望将 AI 技术应用到本地开发中的开发者。在未来,随着更多模型和功能的加入,Open WebUI 将成为更加强大的 AI 部署平台。

2025-04-03 14:23:12 537

原创 图解 LangChain Agents,熬了三天三夜只为你实现AI自动化工作流

LangChain Agents 就像是一个智能助手团队,可以帮你把大型语言模型变成能自动完成复杂任务的工作流程。2. 工作流程2. 自定义工具3. 记忆功能2. 集成外部APILangChain Agents库是构建智能工作流的强大工具,可以帮你:掌握了这套框架,你就能构建真正实用的AI应用了!跟传统脚本比起来简直是降维打击,我熬夜写这篇文章就是希望你少走弯路。快去试试吧!大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “”“”等问题热议不断。不如成为,毕竟AI

2025-03-31 21:10:59 1055

原创 图解 LangChain 本地部署,调试到天亮只为你摆脱API依赖

LangChain 就像是一个积木建筑师,可以帮你搭建与大语言模型交互的应用而不必被外部服务束缚。模型获取本地模型加载创建对话链向量存储设置向量存储RAG实现会话式RAG应用部署简易Web界面进程管理注意事项本地模型对硬件有要求,至少8GB内存。小点儿的也行,但可能卡成PPT第一次加载模型慢,别急,没死机。反正你熬夜调试都习惯了持久化存储向量数据库,省得每次重启都重新计算。谁愿意白等呢大文件分批处理,别一次性全塞进去,内存会哭模型体积越大越吃资源,但效果确

2025-03-31 21:08:51 637

原创 2025大模型案例应用分享:中国人工智能系列白皮书 | (附181页PDF文末下载)

1.1 大模型技术的发展历程 …51.2 大模型技术的生态发展 …91.3 大模型技术的风险与挑战 …11。

2025-03-28 11:29:41 1119

原创 零代码搭建本地知识库:基于DeepSeek+RAG+Ollama+Cherry Studio全流程指南

核心价值企业敏感数据100%离线处理个人知识库智能问答本地模型快速响应支持PDF/Word/网页等多格式文档工具链Ollama:开源模型托管平台(支持150+模型):深度求索开源的16K长文本大模型:中文语义向量模型:AI应用可视化客户端本方案在Intel i7-12700H + RTX 4070设备上实测,可流畅处理200页以内的技术文档问答。通过本地化部署既保障了数据安全,又充分发挥了DeepSeek模型的逻辑推理能力。

2025-03-28 11:28:45 1103

原创 Spring AI + Ollama 实现 deepseek-r1 的API服务和调用

兄弟们,今天咱来聊聊一个超有意思的技术组合 ——Spring AI + Ollama 实现 deepseek - r1 的 API 服务和调用。咱都知道,人工智能这几年那可是火得一塌糊涂,各种大模型你方唱罢我登场。deepseek - r1 就是其中一个挺厉害的模型,那怎么把它用起来,让它为咱们的项目服务呢?这就轮到 Spring AI 和 Ollama 闪亮登场啦!Spring AI 呢,它就像是一个超级助手,专门为咱们开发人工智能应用提供各种便利。

2025-03-28 11:23:46 690

原创 如何成为一名成功的AI产品经理:从传统产品到AI产品的转型之路

定期总结学习成果,撰写博客、发表文章或分享经验,不仅可以加深对知识的理解,还能提升个人的行业影响力。通过不断输出高质量的内容,你可以在AI领域建立起自己的品牌,吸引更多机会。

2025-03-26 15:36:21 1303

原创 【开源】Dify+RAGFlow强强联合:知识库精准度飙升,PDF表格秒变结构化数据!

1. 深度网页解析能力RAGFlow可解析PDF、扫描件、表格等复杂格式,自动识别布局并提取结构化数据,弥补Dify原生解析短板。\2. 检索质量飞跃通过多路召回、重排序优化策略,RAGFlow显著提升答案准确性。例如,扫描版PDF表格的解析完整度提升40%以上。\3. 混合检索模式Dify支持向量检索、全文检索、混合检索(推荐),结合RAGFlow的API调用,实现“非结构化数据+语义匹配”的双重优势。\1. 部署RAGFlow。

2025-03-26 15:33:57 911

原创 即使2025年了,RAG也不会被淘汰

RAG(检索增强生成)自从第一个大上下文窗口的LLM(大语言模型)发布以来,就逐渐式微。现实是这样的:即使拥有令人印象深刻的 2M token 上下文窗口,目前的长上下文 LLM 仍然只能处理简单数据集。例如,一个 1M token的上下文窗口大致相当于 1500 页文档。对于演示来说很不错,但对于生产级应用来说仍然不足。但由于“RAG”这个术语似乎如此具有争议,我们可以这样说: 我们不必称之为 RAG。我们可以称其为简单的。

2025-03-26 15:27:33 909

原创 万字长文!手把手带你上手基于LangChain及Qwen大模型的开发与应用

今天来为大家讲述一下这门在DeepLearning.AI上的经典课程——

2025-03-24 11:04:02 739

原创 从零开始打造自己的Manus:学学如何使用 LangChain 快速构建 AI Agent

最近,随着 Manus 的强势出圈,「智能体(Agent)」这一概念一下子占据了人们的视野,成为AI领域最新的流量密码。那么,智能体到底是什么?我们又该如何快速入门打造自己的智能体应用呢?其实,作为大模型开发热门框架的LangChain,就能帮助我们轻松实现这一目标。今天,就让我们从零开始,一起看看如何用LangChain打造一个专属于自己的Agent智能系统吧!

2025-03-24 10:55:47 709

原创 转行大模型,风口预计就这一年,明年市场就饱和了!

尤其是干程序员的,绝对要抓住这个机会,我不是危言耸听,经历过Java、Python、大数据的,都应该知道,每个新技术,风口就那么多年,技术迭代的很快。大模型(Large Models或Big Models)通常指的是参数量达到数十亿甚至千亿级别的人工智能模型,它们具有极强的表达能力和学习能力,能够处理和理解大量的数据。在人工智能领域,大模型通常是指采用深度学习技术的模型,尤其是神经网络模型,这些模型包含大量的神经元和参数,能够捕捉数据中的复杂模式和关系。

2025-03-24 10:27:34 409

原创 DeepSeek+本地知识库,3大主流方案笔记本实操对比

可以明显看出,基于相同的deepseek大模型,使用不同的模型应用工具(包括解析模型),对话时判若两人。AnythingLLM明显思考更简单,回答十分简洁,回答速度很快。deepseek+RAGflow像一个普通的成年人。deepseek+AnythingLLM像一个普通的小学生。

2025-03-22 11:54:39 758

原创 大模型本地部署:DeepSeek+dify 本地知识库:高级应用Agent+工作流

工作流通过将复杂的任务分解成较小的步骤(节点)降低系统复杂度,减少了对提示词技术和模型推理能力的依赖,提高了 LLM 应用面向复杂任务的性能,提升了系统的可解释性、稳定性和容错性。一个完整的工作流,必须具备。

2025-03-22 10:55:34 1796

原创 手把手教你实现Ollama+FastGPT+Deepseek打造个人专属AI知识库!

本文从零实现,基于Ollama、FastGPT、Deepseek在本地环境中打造属于自己的专业知识库,与大家分享~Ollama是一个开源的本地大语言模型运行框架,专为在本地机器上便捷部署和运行大语言模型(LLM)而设计,无需依赖云端服务。它提供简单易用的界面和优化的推理引擎,帮助我们轻松加载、管理和运行各种AI模型。要使用Ollama,首先需要下载并安装它。访问以下链接:找到适合你操作系统的版本进行下载,默认安装即可。这里笔者以Windows系统为例。

2025-03-21 11:04:33 926

原创 Manus到底是什么?看看这份《Manus没有秘密》就知道了!附PDF免费下载!赶紧收藏!

这份ppt可以让不太了解Manus的同学,快速了解manus,搞清楚manus到底是什么,怎么玩!启动合作,目前着力于进一步的Build,而不是跟随舆论热点,发力于商业变现,这其实是好事。Manus虽然暂停了国内的网站,但是一份比较重要的Manus资料这两天却火了。Manus前两天宣布和阿里合作后,热度开始慢慢减下来了。当然重点是给多开放一些邀请码出来,不然普通人还是玩不上。希望能尽快开发完,能给市场带来一个更优秀的版本。

2025-03-21 10:58:39 231

原创 100行代码搞定LLM Agent?!揭秘AI智能体背后的秘密(附代码)

最近啊,这“LLM Agent”(大语言模型智能体)火得不行,到处都能听到。但好多人一说起这玩意儿,就整一堆专业术语,听得人云里雾里的。我就纳闷了,这 Agent 真有那么玄乎?不就是个能干活的 AI 助手嘛!今天,我就来扒一扒它的底裤,用大白话给大家讲讲,这 Agent 到底是怎么回事儿。保证大家看完都能明白,甚至还能自己动手写一个!

2025-03-21 10:53:48 915

原创 我不信看完这篇你还不懂RAG:RAG技术概述

框架名称核心特点优势劣势/局限适用场景UltraRAG动态记忆管理、多模态支持、自适应优化(DDR)、端到端训练支持- 支持多模态数据(文本、图像、空间数据) - 动态更新知识库,响应实时性强 - 性能优化(如DDR策略) - 开源灵活- 需较高计算资源(GPU) - 配置复杂度较高复杂问答、多模态分析、企业知识库(如医疗、金融)中文友好、可视化界面、流式输出、支持离线部署- 中文场景优化 - 开箱即用,易集成 - 支持本地化部署(隐私保护) - 社区活跃。

2025-03-20 14:14:31 869

原创 用 DeepSeek 打造你的超强代码助手

无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。想正式转到一些新兴的 AI 行业,不仅需要系统的学习AI大模型。同时也要跟已有的技能结合,辅助编程提效,或上手实操应用,增加自己的职场竞争力。

2025-03-20 14:09:15 4281

原创 图RAG统一框架来了,12种RAG方法一网打尽~

这篇文章要解决的问题是如何在统一框架下对基于图的检索增强生成 (RAG) 方法进行系统的比较和分析。现有的基于图的 RAG 方法没有在同一实验设置下进行系统的比较。包括缺乏统一的框架来抽象和比较各种基于图的 RAG 方法;现有工作主要关注整体性能评估而非单个组件的性能;以及缺乏对各种方法在准确性和效率方面的全面比较。涉及 RAG 技术在医疗、金融、教育等领域的广泛应用,以及已有的基于图的 RAG 方法(如 RAPTOR、KGP、HippoRAG 等),但这些方法缺乏系统比较和分析。

2025-03-20 14:03:40 910

原创 100个常用的DeepSeek指令(职场、创意、生产力、个人发展),直接使用

今天给大家准备100个职场和日常生活中实用的DeepSeek提示词,涵盖职场效能、个人创意、生产力提升与个人发展领域。下面帮大家采用分类整理。报告优化:请分析这份报告的逻辑结构并提出改进建议提案重构:请将这份提案按SCQA框架重新组织内容市场调研:请整理过去一年关于…市场的主要变化趋势会议效率:设计一套45分钟高效会议的流程模板和角色分工绩效分析:请将这份员工表现数据转化为四象限评估图表反馈框架:设计一套建设性反馈的STAR模型对话示例谈判准备:为…商务谈判制作利益分析表和BATNA清单。

2025-03-18 16:10:56 744

原创 大模型私有知识库如何提高准确率?切块是关键

在进行RAG(Retrieval-Augmented Generation)任务时,我们仿佛在进行一场精密的开卷考试。在回答问题之前,我们会通过多级检索策略查阅事先准备好的知识库(包含结构化文档、领域论文和实时更新的行业报告),这种动态增强机制不仅能够将答案准确率提升35-50%,还能通过语义关联技术自动生成知识图谱,使输出的答案具备专业深度和横向拓展性。完整的RAG流程包含五个优化层级:知识预处理模块会对原始数据进行清洗和实体标注,采用混合嵌入模型(如BAAI/bge和text2vec)进行向量化编码。

2025-03-18 16:09:29 853

原创 DeepSeek+ragflow构建企业知识库之工作流,突然觉的dify又香了

我们按照下图的数据介绍组件。• ragflow的的官方文档相对来说还是比较欠缺的,特别是用户交互这块。• ragflow的ui使用成本相对比较高,组件不知道返回什么,只能根据示例或意图推断• 使用ragflow建议是有技术底子的• 英文文档的描述习惯和中文还是有很大的差别的说实话,用着有点崩溃,哈哈。

2025-03-17 15:22:57 1048

原创 大模型微调之基础篇:大模型微调概念以及微调框架

在大模型微调领域,存在多种框架,每个框架都有其独特的优势和局限性。下面介绍几种常见的微调框架,包括示例代码和适用模型,帮助你根据任务需求选择最合适的框架。

2025-03-17 15:20:49 1283

原创 LLM微调方法(Efficient-Tuning)六大主流方法:思路讲解&优缺点对比[P-tuning、Lora、等]

由于LLM参数量都是在亿级以上,少则数十亿,多则数千亿。当我们想在用特定领域的数据微调模型时,如果想要full-tuning所有模型参数,看着是不太实际,一来需要相当多的硬件设备(GPU),二来需要相当长的训练时间。因此,我们可以选择一条捷径,不需要微调LLM的全量参数,而只需要新增少量的参数,通过固定原始模型参数,而只需要微调新增的少量参数,从而达到接近使用全参数full-tuning的效果。本章主要讲述在LLM时代,当下主流的微调方法。

2025-03-12 10:45:20 1314

原创 不用WSL也能在Windows上直接使用Unsloth微调大模型了!

Unsloth 现在可以在 Windows 上运行!🦥无需 Linux 或 WSL,即可在 Windows 上本地微调 LLM。直接安装最新版本的 GPU 驱动程序。默认情况下,C++ 不会随 Visual Studio 一起安装,因此请确保选择所有 C++ 选项。还要选择适用于 Windows 10/11 SDK 的选项。

2025-03-12 10:43:11 513

原创 2025年AI大模型时代就业指南:Java 程序员如何转行做大模型?

在如今这个 AI 大爆发的时代,大模型成为了科技领域的新宠。对于 Java 程序员来说,这也是一个实现职业转型、提升薪资待遇的绝佳机遇。一、明确大模型概念简单来说,大模型就是具有大量参数和强大计算能力的人工智能模型,可以处理各种复杂的任务,如自然语言处理、图像识别等。想象一下,大模型就像是一个超级聪明的大脑,能够理解和处理各种信息。二、转行步骤第一步:学习基础知识。了解机器学习、深度学习的基本概念和原理,掌握常见的算法和模型架构。可以通过在线课程、书籍等资源进行系统学习。第二步:掌握相关工具和框架。

2025-03-11 11:29:19 756

原创 大模型实战5分钟手把手系列:如何微调一个大模型(Colab + Unsloth)

大家在开发一款AI应用时,模型微调并不应该是最先要考虑的事情,目前细分的垂类模型生态已经非常丰富,微调也仅仅能解决对特定任务下大模型的泛化推理能力,而针对需要解决问题的信息实时性、准确性也是通过RAG等方案来解决,有时候对提示词的优化也能起到比较好的效果,所以建议大家在AI应用开发流程上,切勿上来就开始进行模型微调,微调的数据集比例选择(通用/专业)、微调参数选择的不准确,都可能使得基准的大模型失去通用的泛化能力,起到意想不到的反效果。

2025-03-11 11:22:49 1385

原创 一文学会基于LangChain开发大模型RAG知识问答应用

RAG全称是Retrieval-Augmented Generation,即检索增强生成。通俗来讲,就是在用户提的问题的基础上,引入相关资料信息,把“问题+相关资料” 一起给大模型,让大模型在参考资料的约束或提示下回答问题而不是随意发挥,从而期望大模型生成质量更高、更准确的答案,改善大模型”幻觉“、训练数据过时、 知识范围有限等带来的负面问题。在涉及到专业领域知识或企业内部知识的应用场景中,这项技术发挥着重要作用。相比于,RAG时间成本、经济成本和技术难度都更低。

2025-03-10 11:18:03 793

原创 2025DeepSeek对大模型算法工程师的影响,给各位想参与到这个行业中的技术同学的一些参考!

进一步从一个从业者的视角,看DeepSeek R1发布,对大模型算法工程师这一岗位的影响。给各位想参与到这个行业中的技术同学,一点参考。可以显著感受的趋势是,基座的门槛进一步提高,万卡,算法infra背景成为刚需标配,玩法进一步向大工程,集团化,精英化作战转型,强调单兵创新能力。过去做基座的有一句玩笑话,对比OpenAI国产大模型永远落后,永远追赶,永远有饭吃。现在你们的同行已经不落后了,那你们呢?应用这块,就更惨烈了。过往大模型算法应用工程师最大的门槛就是微调。

2025-03-10 11:15:37 650

原创 向量数据库+上下文检索:提升RAG等AI应用的精准性与效率

无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。在 RAG 任务中,传统的检索方式可能会导致重要的上下文缺失,影响生成结果的质量。(例如,搜索公寓图片,但排除特定城市的公寓)。

2025-03-08 11:22:44 966

原创 我分析了网络上所有公开的大模型学习路线的优缺点后,自己一行行手敲出了这份应该算是最详细的大模型0基础入门学习路线,从零基础到入门!

我对比过现在网络上公开的大模型入门学习路线,都没有像我这份路线图一样会详细到告诉你每个阶段应该学什么、具体学习什么内容、看什么教材、学习方法、包括每个阶段学习后的总结。大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。不如成为,毕竟AI时代,想正式转到一些新兴的 AI 行业,不仅需要系统的学习AI大模型。同时也要跟已有的技能结合,辅助编程提效,或上手实操应用,增加自己的职场竞争力。那么我作为一名热心肠的互联网老兵,

2025-03-08 10:59:19 428

原创 初识AI Agent——以大模型为核心的智能体

尽管ChatGPT、Midjourney、Runway、Pika等原生AI应用非常火爆,微软、谷歌、百度、淘宝等大厂在结合LLM的能力更新迭代自己的产品,很多套壳应用也层出不穷,但LLM的潜力可远远不止于用来生成好的文案、图片和视频,或者用来优化学习、体验、搜索等,

2025-03-07 17:41:00 988

原创 Manus凭什么被称为AGI曙光?一文看懂如何改变我们的工作和生活

2025 年 3 月 6 日,全球首个通用 AI 智能体正式发布,一经推出便引爆科技圈。有人称它为,也有人认为它是人类生产力的终极外挂——只需用自然语言描述需求,Manus 便能,完成复杂任务,交付专业级结果。但它究竟意味着什么?比起 ChatGPT,Manus 真正的突破在哪?而更重要的是,?一文带你看懂,并告诉你。

2025-03-07 17:36:07 1629

原创 一篇文章搞懂Manus:全球首个通用型Agent!

首席科学家季逸超还说:“Manus让我们提前看见了AGI,也就是通用人工智能的曙光。而且manus的命名源自于拉丁语“Menset Manus”,也就是头脑和手的意思,

2025-03-07 17:34:42 663

原创 大模型实战:使用Pytorch从零实现Transformer模型,简单易懂,小白速成!

2017年Google在论文《Attention is All You Need》中提出了Transformer模型,并成功应用到NLP领域。该模型完全基于自注意力机制Attention mechanism实现,弥补了传统的RNN模型的不足。本文笔者将详解使用Pytorch从零开始逐步实现Transformer模型。

2025-03-06 17:49:27 954 1

原创 Ollama + AnythingLLM +Weaviate 架构搭建 DeepSeek 知识库

这个文件用于设置 GRUB 引导加载器的参数,确保在系统启动时禁用 IPv6。必须先处理上面的两个配置文件,最后才配置GRUB,否则会导致无法禁用ipv6。通过Ollama、AnythingLLM和Weaviate的有机结合,DeepSeek知识库架构不仅提升了知识管理的智能化水平,还有效优化了信息检索的速度和准确性。Ollama为架构提供了本地化、可定制的AI推理平台,AnythingLLM增强了自然语言理解与生成的能力,而Weaviate则以其强大的向量数据库特性为系统提供了高效的查询与数据存储支持。

2025-03-05 11:10:03 741

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除