- 博客(494)
- 收藏
- 关注
原创 借助MarsCode AI助手分析LlamaIndex的工作流可视化
我们总结了LlamaIndex工作流的可视化部分的实现和细节,重点分析了如何利用Python中的pyvis库和Java中的图形库,分别在两种语言中构建和展示网络图。通过代码示例,我们详细探讨了如何构建节点、添加边并通过布局生成交互式图形,同时也提到了在Java中使用Jung库和GraphStream库时可能遇到的挑战与解决方案。
2025-05-13 15:26:08
705
原创 LlamaIndex+Ollama构建《劳动法》问答机器人
本文将一步一步引导大家如何使用LlamaIndex和Ollama构建一个针对《劳动法》的问答机器人。这个机器人能够理解并回答关于这本劳动法的各种问题。
2025-05-13 15:17:36
667
原创 99%的人都应该看看这本书,精简小册子让你快速跨入大模型的世界
书中首先介绍了大模型(LLM)的基础知识,包括语言模型、自然语言处理(NLP)以及Transformer架构,帮助读者快速理解GPT-4等模型的工作原理。通过这本书,读者能够快速掌握大模型的基础知识与开发技巧,特别适合初学者与想要在短时间内完成AI应用开发的开发者。在deepseek爆火的现在,大模型已经不再是开发者专享的东西,未来一定是大模型的世界,不管你是做什么工作,都应该来了解大模型,甚至是开始使用大模型。这一部分不仅帮助我理解了大模型的技术本质,也让我对NLP领域的前沿发展有了更系统的认识。
2025-05-07 16:16:09
636
原创 10分钟搭建AI聊天机器人:Python与LangChain实战教程
那天凌晨三点,我还在修复生产环境的bug。无意间打开了同事的代码,发现他用了近500行Python脚本来对接OpenAI API。天呐!这代码看起来像是用血泪写成的…我笑了。这不就是两年前的我吗?当初为了实现一个简单的AI问答功能,写了一堆繁琐的token处理、上下文管理和错误重试逻辑。如今有了,这些痛苦完全可以避免。LangChain到底是什么?它是构建LLM应用的"乐高积木"。Harrison Chase在2022年10月创建它时,可能没想到它会成为AI应用开发的事实标准。让我直接上手吧!
2025-04-28 17:53:57
906
原创 图解 LangChain 知识库导入导出,连续奋战只为你简化数据迁移
LangChain 就像是一个智能搬运工,可以帮你轻松搬运和转换各种知识库数据。2. 转换处理2. 知识库迁移3. 远程存储同步2. 知识库导出备份LangChain库是知识数据管理的得力助手,可以帮你:掌握这些技巧,你就能灵活管理AI知识库了,再也不怕迁移麻烦!反正我都连续肝了三天才把这套方案搞定,现在专门写出来,就是想让你少走弯路!大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “”“”等问题热议不断。不如成为,毕竟AI时代,谁先尝试,谁就能占得先机!想正式转
2025-04-28 17:49:43
1033
原创 AI大模型从概念到实践:RAG:从零开始,100行代码实现一套RAG系统(附代码)
把文档解析,切片,存入向量化库(向量库里存:文档切片,和对应向量)。
2025-04-21 17:06:37
711
原创 2024大模型新书《大模型基础》初学者的必入神器,看完头脑清晰!
为增加本书的易读性,每章分别以一种动物为背景,对具体技术进行举例说明,故此本书以六种动物作为封面。当前版本所含内容均来源于作者团队对相关方向的探索与理解,如有谬误,恳请大家多提issue,多多赐教。后续,作者团队还将继续探索大模型推理加速、大模型智能体等方向。相关内容也将陆续补充到本书的后续版本中,期待封面上的动物越来越多:) 本书当前内容目录如下,本教材为开源教材,旨在为对大语言模型感兴趣的读者。并且,本书还将针对每章内容配备相关的Paper List,以跟踪相关技术的。第 2 章 大语言模型架构。
2025-04-16 16:27:41
162
原创 AI界唯一一本全面解析Transformer的书《Transformer、BERT、GPT 大语言模型原理深度解析》从入门到精通,真是太太太全面了!
此外,随着改进版Transformer架构(如Reformer、Longformer和Switch Transformer等)的出现,其在资源利用效率和处理超长序列的能力上得到了进一步优化和增强。Transformer组件详解:描述了Transformer的几个关键方面,如编码器包含六个包含自我注意力和前馈神经网络两层子层的块,而解码器同样包含六个块,但比编码器多一个用于处理编码器输出的多头注意力层。介绍了生成式人工智能的基本概念,特别是注意力机制这一Transformer架构的关键组件。
2025-04-16 16:25:28
678
原创 8个视觉大模型生成式预训练方法
大语言模型的进展催生出了ChatGPT这样的应用,让大家对“第四次工业革命”和“AGI”的来临有了一些期待,LLM和视觉的结合也越来越多:比如把LLM作为一种通用的接口,把视觉特征序列作为文本序列的PrefixToken,一起作为LLM的输入,得到图片或者视频的caption;也有把LLM和图片生成模型、视频生成模型结合的工作,以更好控制生成的内容。当然2023年比较热门的一个领域便是多模态大模型,比如BLIP系列、LLaVA系列、LLaMA-Adapter系列和MiniGPT系列的工作。
2025-04-14 17:37:01
937
原创 LangChain 实战案例:使用 RAG 技术搭建商品快速查询系统
为了能够实现向量数据库的构建与应用,我们首先需要知道几个小的背景和流程:以上就是对RAG的一些简介,假如希望对创建一个完整的 RAG 系统有更多了解,可以参考我之前基于吴恩达DeepLearning.AI里“LangChain:Chat with your data”写的课程来了解更多信息!根据上面的信息我们其实已经对RAG系统有一个简单的了解了,那么下面我们就可以来更深入的看看如何利用一份简单的商品文档来利用进行构建属于我们自己的数据库问答系统。大家可以创建一个名为“商品详情.csv”的文件,并将下面的内
2025-03-28 16:10:44
584
原创 在自然语言处理(NLP)任务中,怎么处理数据——即怎么把文字输入到模型中进行处理?
文本序列化是自然语言处理任务的前置条件,而文本序列化需要经过分词,构建词汇表和序列化的几个步骤**”**在神经网络或者说在机器学习领域中,数据主要以向量的形式存在,表现形式为多维矩阵;但怎么把现实世界中的数据输入到神经网络中是机器学习的一个前提。但我们也知道,计算机只认识数字,而不认识文字和图片;因此,就需要把这些数据转换为计算机能够识别的格式;而在神经网络模型中就是怎么把这些数据转换为向量的格式。简单来说,就是把现实世界中的数据转化为用多维矩阵进行表示的过程。
2025-03-24 15:23:09
647
原创 基于LLaMA-13B的中英医疗问答模型(LoRA)、实现包括二次预训练、有监督微调、奖励建模、强化学习训练
ModelBase Model在240万条中英文医疗数据集上SFT微调了一版Ziya-LLaMA-13B模型,医疗问答效果有提升,发布微调后的LoRA权重姜子牙通用大模型 V1 是基于 LLaMa 的 130 亿参数的大规模预训练模型,具备翻译,编程,文本分类,信息抽取,摘要,文案生成,常识问答和数学计算等能力。目前姜子牙通用大模型已完成大规模预训练、多任务有监督微调和人类反馈学习三阶段的训练过程。软件依赖。
2025-03-24 15:10:11
607
原创 大模型书籍安利:AI大模型训练数据白皮书|附PDF免费下载
在上述基础上,本书进而对训练数据的质量和规模进行讨论,发现高质量数据应在实践中检验效果,而难以用前置的客观标准衡量。最后,本书论述构建政府和社会力量协同的数据生态对满足大模型训练数据需求的重要性,并以阿里巴巴的实践为案例做说明和阐述。大模型训练数据合规治理之智:重视数据可及性,提升模型安全训练数据供给,应用新技术提升合规性和安全性。同时,本书探讨了合成数据作为解决高质量训练数据供给不足的新方案,及其在大模型训练中的潜力。在训练数据合规方面,针对模型训练的特点,本书提出顺应模型发展的数据治理思路。
2025-03-21 16:07:37
1361
原创 大模型私人定制:短短几行代码微调构建属于你的人工智能大模型(使用unsloth微调DeepSeek-r1大模型)
以上分享了使用框架unsloth在写少量代码情况下微调大模型的实践。相比于之前介绍过的大模型私人定制:使用llama-factory微调Qwen大模型,unsloth虽然需要编写一些代码,但它结构更清晰可控。同时Unsloth的训练性能、支持模型种类要优于llamafactory。当然unsloth和都是很优秀的框架,大家可以凭自己喜好选择微调框架使用。还等什么,快来动手训练属于你“专有领域”的大模型吧~大家在阅读微调分享经常评论到有没有什么微调经验微调参数详细讲解设置的分享微调数据集如何构建。
2025-03-21 16:06:38
1081
原创 从DeepSeek到Manus:如何实现本地LLM微调+联网开发?
1 LLaMA-Factory本地大模型微调2 本地大模型联网功能开发3 业务场景探索4 未来展望与实践建议。
2025-03-21 16:01:44
1484
原创 [特殊字符]太强了!能看图写代码的多模态大模型DeepSeek-VL
🚀 DeepSeekAI,这家得到幻方量化后盾的创新型企业,近期推出了一系列新的多模态大模型:DeepSeek-VL。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。”,模型的表现如何呢?
2025-03-20 15:53:37
443
原创 2025AI大模型报告 | 《中国数字人发展报告(2024)》(附PDF免费下载)
工业和信息化部科技司副司长杜广达近日表示,下一步要持续强化标准引领,推进数字人术语、管理、服务等基础共性标准,数字身份多模态交互等关键技术标准,以及数字客服,数字员工等重点领域服务标准的研究与应用,建立健全数字人的标准体系。工业和信息化部信息通信专家委员会顾问武锁宁也指出,现在中国的数字人产业已经形成了比较完整的产业体系,对于那些需求的潜力比较大,能够实行规模化的应用领域应用侧形成规模化的需求和复制的需求,就有希望带动这个产业循环发展。篇幅太长就不一一展示。
2025-03-20 15:31:57
708
原创 DeepSeek R1 实现本地化部署 + 可视化访问,真的太香了!
Cherry Studio 是一个支持多服务商集成的 AI 对话客户端,CherryStudio 目前支持市面上绝大多数服务商的集成,并且支持多服务商的模型统一调度。官网地址:
2025-03-20 15:28:12
1001
原创 大模型训练全解析:预训练、微调、强化学习,一步到位!
2025年初,随着DeepSeek的迅速走红,公众对LLM(大语言模型)的兴趣急剧上升。许多人被LLM展现出的近乎魔法的能力所吸引。然而,这些看似神奇的模型背后究竟隐藏着什么秘密?接下来,我们将深入探讨LLM的构建、训练和微调过程,揭示它们如何从基础模型演变为我们今天所使用的强大AI系统。这篇文章是我一直想写的,如果你有时间,它绝对值得一读。:我们将介绍LLM的基础知识,涵盖从预训练到后训练的整个过程,探讨神经网络的工作原理、幻觉现象(Hallucinations)以及模型的推理机制。
2025-03-18 17:25:40
1016
原创 大模型实战:如何在 GraphRAG 架构中实现本地知识图谱问
微软最近发布了 Phi-4-mini,这是一个针对资源受限环境的小型模型。为了将任何模型应用于利基领域,需要某种形式的适应。GraphRAG 是一种流行的方法,其中文档被摄取并表示为知识图谱,并用于为模型提供上下文以支持其响应。为了有效地存储这些图,Neo4j 图数据库管理系统是一个不错的选择。在本文中,我们研究了如何启用软件包以成功加载最近发布的 Phi-4-mini。我们开发了一个简单的问答系统来摄取、构建知识图谱并存储在本地 Neo4j 数据库上。
2025-03-18 17:19:52
382
原创 DeepSeek|手把手教你完成AI投喂数据训练
在完成deepseek-r1模型的本地部署后,如何搭建自己的个人知识库,训练(投喂数据)出专属自己的AI工具呢?比如多模态学习:PDF、音频、视频;使AI更加准确的理解我们的意图,更快速完整的给出精准答案,为提供我们更懂、更人性化的服务。follow me,跟着本文下述教程步骤操作就能搞定!此操作使用ollama就可以完成,首先,运行运行我们需要指定好具体的模型名称和大小,即上篇文章安装的本地deepseek-r1:1.5b模型;
2025-03-12 11:42:16
2951
原创 别再死磕大模型!专业模型+Agent才是大模型的未来之路
大语言模型(LLMs)的规模越来越大,但这并不意味着它们就更加出色。由确定性编排和基于代理的架构支持的专业模型,正为我们开辟一条更智能、更精准、更可靠的发展道路。随着大语言模型功能的不断增强,软件开发者和用户的期望也水涨船高,希望能充分利用这些新特性。然而,在追求进步的过程中,我们始终面临着一种平衡难题:每出现一个新的大语言模型,尽管在某些方面有所提升,但随之而来的是可靠性问题,比如信息不准确和所谓的“幻觉”现象。我们对模型的要求越来越高,而模型的可靠性却不断下降,如此循环往复。
2025-03-12 11:40:07
656
原创 手把手教你用DeepSeek和Dify打造企业级AI助手
DeepSeek 和 Dify 的结合就像给天才大脑配上了万能工具箱,能轻松打造各种智能应用。比如24小时智能客服、行业知识库问答、智能写作助手。
2025-03-10 15:54:26
1589
原创 使用LangChain+DeepSeek动态生成推箱子游戏关卡
01打开DeepSeek 的官方网:https://www.deepseek.com。查找与 API 相关的页面或开发者文档。登录后,进入开发者中心或 API 管理页面。通常可以在用户面板或设置中找到相关选项。新注册用户赠送10元免费额度。02LangChain是一个强大的框架,用于构建基于语言模型的应用程序,尤其适用于处理自然语言推理任务。它能够通过模型推理来生成内容或执行任务,而不是仅依赖于预定义的规则或固定内容。这段代码的功能是测试langchain库与 DeepSeek 模型的交互。
2025-03-10 15:51:54
1070
原创 AI大模型报告 | 《中国数字人发展报告(2024)》(完整版PDF免费附下载)
工业和信息化部科技司副司长杜广达近日表示,下一步要持续强化标准引领,推进数字人术语、管理、服务等基础共性标准,数字身份多模态交互等关键技术标准,以及数字客服,数字员工等重点领域服务标准的研究与应用,建立健全数字人的标准体系。工业和信息化部信息通信专家委员会顾问武锁宁也指出,现在中国的数字人产业已经形成了比较完整的产业体系,对于那些需求的潜力比较大,能够实行规模化的应用领域应用侧形成规模化的需求和复制的需求,就有希望带动这个产业循环发展。公开数据显示,目前我国与数字人相关的企业达到114.4万家。
2025-03-08 15:00:28
679
原创 Manus:这个堪比 DeepSeek 的核弹,如何让普通人也能指挥“数字员工”?
Manus 的 AI 不再是冷冰冰的工具,而是一个能独立干活的“数字员工”。
2025-03-08 14:56:47
1156
原创 本地部署DeepSeek-R1实现针对音频文件的RAG系统实践
可能大家都想学习AI大模型技术,也想通过这项技能真正达到升职加薪,就业或是副业的目的,但是不知道该如何开始学习,因为网上的资料太多太杂乱了,如果不能系统的学习就相当于是白学。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;大模型岗位需求越来越大,但是相关岗位人才难求,薪资持续走高,AI运营薪资平均值约18457元,AI工程师薪资平均值约37336元,大模型算法薪资平均值约39607元。第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。
2025-03-08 14:53:06
924
原创 值得开发者好好看一看的AI大模型入门教程(内含300道AI面试真题)零基础到精通,看这篇就够了,赶紧收藏!!!
但知道是一回事,做又是另一回事,初学者最常遇到的问题主要是理论知识缺乏、资源和工具的限制、模型理解和调试的复杂性,在这基础上,最近很多程序员朋友都已经学习或者准备学习 AI 大模型,后台也经常会有小伙伴咨询学习路线和学习资料,学习第一步,咱们先理清楚。是否懂 AI,是否具备利用大模型去开发应用能力,是否能够对大模型进行调优,将会是决定自己职业前景的重要参数。为了帮助开发者打破壁垒,快速了解大模型核心技术原理,学习相关大模型技术。从原理出发真正入局大模型。作为开发者,如何做到真正的入局?什么才叫真正的入局?
2025-03-05 14:44:08
321
原创 LangChain 实战案例:使用 RAG 技术搭建商品快速查询系统
为了能够实现向量数据库的构建与应用,我们首先需要知道几个小的背景和流程:根据上面的信息我们其实已经对RAG系统有一个简单的了解了,那么下面我们就可以来更深入的看看如何利用一份简单的商品文档来利用进行构建属于我们自己的数据库问答系统。大家可以创建一个名为“商品详情.csv”的文件,并将下面的内容放进去即可完成数据库的创建。下面就让我一步步的带领大家快速的进行构建。首先第一步也是最关键的一步就是要把我们需要的大模型以及嵌入模型。这里我们还是选用的是 这个大模型,并且使用同样是阿里云打造的 作为我们的向量模型。
2025-03-04 17:34:25
621
原创 《Hello 算法》算法领域超有名的项目!超95k star!用动画和可视化代码带你认识算法
这个项目在GitHub上收获95.1k star⭐,从第一次提交到现在有近两年的时间,最近一次更新是在两天前,有超过100+开发者参与贡献,非常活跃!用老话来说就是,“没有人会一直在学算法,但一直有人在学算法。代码支持Python, Java, C++, C, C#, JS, Go, Swift, Rust, Ruby, Kotlin, TS, Dart等10+种语言。网页版每个章节的底部都配有评论区,几乎每一章每一节都有人发表自己的思考,也许你百思不得其解的问题,就在这里找到答案。《Hello 算法》
2025-02-27 17:59:30
599
原创 基于 Qwen2-1.5B Lora 微调训练医疗问答任务
模型回答:根据你的叙述,胃炎胆汁反流性胃炎的可能性大,建议口服奥美拉唑,吗丁啉救治,清淡易消化饮食,忌辛辣打击食物,留意歇息,不要加班除了正规救治胃痛外,患者还需要有看重护理方面,比如恰当饮食,始终保持心情愉快。: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。
2025-02-26 12:08:47
969
原创 2025年要面试腾讯/阿里/字节,赶紧收藏30道面试官必考题
【核心原理】:Reactor基于事件驱动,使用I/O多路复用(如epoll)监听多个文件描述符的事件(如读/写),通过事件分发器(Dispatcher)将事件分发给对应的事件处理器(Handler)。想正式转到一些新兴的 AI 行业,不仅需要系统的学习AI大模型。问题:返回二叉树从右侧看到的节点值(例如输入二叉树层序遍历 [1,2,3,null,5,null,4],输出[1,3,4])。问题:合并所有重叠区间(例如输入[[1,3],[2,6],[8,10]],输出[[1,6],[8,10]])。
2025-02-26 12:05:29
1011
原创 构建一个2B大模型的手把手全流程介绍,从数据准备到模型训练
介绍一个在github上很火的项目,其主要的想法是从头构建一个大模型,作者在这个项目中详细说明了每个步骤以及代码的处理逻辑,大家可以参考,https://github.com/FareedKhan-dev/train-llm-from-scratch代码结构如下:├── src/│ │ ├── mlp.py # 多层感知机(MLP)模块的定义│ │ ├── attention.py # 注意力机制的定义(单头、多头)
2025-02-25 11:44:35
963
原创 在本地部署DeepSeek大模型实现联网增强的AI应用
在本地部署大语言模型(LLM)并赋予其联网能力,是当前AI应用开发的重要方向。本文将基于Microsoft Semantic Kernel框架,结合DeepSeek本地模型和自定义搜索技能,展示如何构建一个具备联网增强能力的智能应用。在本地安全地运行DeepSeek大模型灵活扩展模型的实时信息获取能力构建企业级AI应用解决方案完整项目代码已托管至GitHub(示例地址),欢迎开发者参考和贡献。这种本地+联网的混合架构,为构建安全可靠的智能应用提供了新的可能性。
2025-02-24 15:00:00
1096
原创 大模型好书推荐 - 《多模态大模型:技术原理和实战》(附送PDF电子版)
内容概述:引入多模态大模型的概念,探讨其技术挑战与解决方案。关键要点:多模态数据的表示、融合与对齐技术。内容概述:总结全书内容,提出对未来研究的建议与展望。这本大模型书籍PDF电子版我会免费分享出来,需要的小伙伴可以扫取。
2025-02-22 17:51:37
669
原创 大模型书籍 | 从入门到精通大模型就看这一本《掌握Transformer:从零开始构建SOTA模型》(附PDF)
您还将处理多语言和跨语言问题,通过监控模型的性能来优化模型,并了解如何将这些模型拆解为可解释性和可解释性。基于Transformer的语言模型已经在自然语言处理(NLP)研究中占据主导地位,现已成为一种新的范式。通过本书,您将学习如何使用Python Transformers库构建各种基于Transformer的NLP应用程序。随着学习的深入,您将探索自编码模型(如BERT)和自回归模型(如GPT)的架构。他曾是土耳其领先的电信和银行公司的顾问,并参与了包括自然语言理解和语义搜索在内的各种项目。
2025-02-21 11:58:21
308
原创 大模型书籍安利:AI大模型训练数据白皮书|附下载
在上述基础上,本书进而对训练数据的质量和规模进行讨论,发现高质量数据应在实践中检验效果,而难以用前置的客观标准衡量。最后,本书论述构建政府和社会力量协同的数据生态对满足大模型训练数据需求的重要性,并以阿里巴巴的实践为案例做说明和阐述。大模型训练数据合规治理之智:重视数据可及性,提升模型安全训练数据供给,应用新技术提升合规性和安全性。同时,本书探讨了合成数据作为解决高质量训练数据供给不足的新方案,及其在大模型训练中的潜力。在训练数据合规方面,针对模型训练的特点,本书提出顺应模型发展的数据治理思路。
2025-02-20 12:01:50
1140
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人