自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

iamyaya365的专栏

我也想写一下

  • 博客(30)
  • 资源 (2)
  • 收藏
  • 关注

原创 RAG 文档三种切分策略:规则、场景、优缺点全解析

RAG文档切分策略对比:固定长度切分简单高效但语义断裂严重,适用于无结构文本;递归字符切分兼顾效率与语义完整性,是通用首选方案;增强递归切分引入NLP和自适应优化,适合专业复杂文档但实现复杂。三种方法在实现复杂度、处理性能、语义保留等方面各有优劣,需根据文本类型和业务需求选择。

2025-12-30 21:25:13 562

原创 Dify知识库:企业级RAG解决方案全景解析

Dify知识库是一款企业级RAG解决方案,核心功能包括文档处理、智能检索和多模态支持。支持20+文件格式自动处理,提供高质量/经济两种检索模式,最新版本实现图文双向检索能力。系统采用四层架构设计,支持多种向量数据库,通过混合存储降低70%成本。性能方面,优化后响应时间<1秒,并发达4700次/秒,索引速度提升80%。提供完善的API/SDK生态和可视化开发工具,支持快速原型验证。建议借鉴其分层架构、多模态支持和元数据权限管理,同时关注性能优化和版本兼容性挑战。

2025-12-30 17:52:27 414

原创 从零搭建企业级多模态知识检索系统:技术架构与实战经验分享

本文介绍了企业级多模态知识检索系统的设计与实现。系统支持文档、图片、音频、视频等多种格式的智能检索,采用FastAPI+React技术栈,基于CLIP/Sentence-Transformers实现多模态向量化,使用ChromaDB存储向量。文章详细阐述了系统架构设计、核心功能实现(文件处理、向量化、混合检索)、性能优化(批量处理、GPU加速、缓存策略)以及部署方案,并分享了开发过程中遇到的问题及解决方案。该系统具有多模态支持、高性能、可扩展等技术亮点,支持百万级数据规模的毫秒级响应,准确率达90%以上。

2025-12-25 21:27:34 725

原创 深入解析强化学习三大经典算法:Q-Learning、REINFORCE 与 PPO

本文介绍了强化学习领域的三种重要算法:Q-Learning、REINFORCE和PPO。Q-Learning是基于价值的经典算法,通过Q-table学习最优策略,适用于离散动作空间问题。REINFORCE是策略梯度方法的基础,直接优化策略参数,适合处理连续动作空间。PPO则在REINFORCE基础上改进,通过限制策略更新幅度提高了训练稳定性,已成为复杂任务的默认选择。文章详细阐述了每种算法的核心原理、应用场景,并提供了Python实现代码示例,帮助读者理解这些算法的实际应用。这三种算法代表了强化学习发展的不

2025-10-11 14:26:35 1457

原创 大模型进阶之路一:从混合召回(Hybrid Retrieval)到多步迭代召回(Iterative Retrieval)

本文探讨了构建基于大语言模型(LLM)的检索增强生成(RAG)应用中的关键召回策略。传统稀疏检索(BM25)和稠密检索(Sentence-BERT)各有优劣,为此提出两种进阶策略:1)混合召回,通过加权融合两种检索结果;2)多步迭代召回,利用LLM分析初次召回结果并优化查询进行二次检索。文章提供了完整的Python实现,展示了一个包含混合检索和两轮迭代优化的智能召回系统,其中LLM能将"如何高效微调"优化为"LoRA高效微调方法",显著提升召回精度。这种智能检索系统能

2025-10-10 16:43:34 1077

原创 一文掌握LLM铁三角:检索增强生成、微调与提示工程的理论、实操及最优解

本文深入探讨了企业级大模型应用的核心技术"铁三角"——检索增强生成(RAG)、模型微调(Fine-Tuning)和提示工程(Prompt Engineering)。文章系统分析了三项技术的原理、优势与局限:RAG通过外部数据检索解决知识时效性问题;模型微调(特别是LoRA技术)通过参数固化实现专业能力内化;提示工程则通过注意力机制引导实现临时行为约束。三者协同可构建高效的企业级解决方案,如RAFT架构结合微调与RAG优势,LoRAX技术确保结构化输出准确性。文章还通过销售邮件生成器等实例

2025-10-10 12:47:59 598

原创 LoRA 高效微调大语言模型全流程:从原理、实践到参数调优

本文介绍了基于LoRA技术对Seq2Seq模型mt0-large进行高效微调的完整实践方案。通过HuggingFace生态,详细阐述了从模型配置、数据处理到训练优化的全流程。重点分析了目标模块(target_modules)和学习率(learning_rate)对模型性能的影响,对比实验表明:全覆盖关键线性层(q,v,k,o,wi,wo)和采用低学习率(9.65e-7)能显著提升生成质量。该方案解决了LLM全量微调的高成本问题,仅需训练0.1%的参数即可获得专业领域适配能力,为资源受限场景下的模型优化提供了

2025-09-29 23:02:17 890 2

原创 指令微调数据评估与影响:构建高质量大语言模型的关键

本文探讨了大语言模型(LLM)指令微调数据的评估方法,重点围绕数据质量和多样性两大核心维度展开。在数据质量方面,提出了从困惑度、BLEU/ROUGE到BERT语义相似度的多级评估体系;在多样性评估上,介绍了词汇丰富度、句长方差等统计指标,以及基于BERT向量化和K-NN算法的语义空间分布评估方法。文章还提供了完整的Python代码示例,展示了如何实现自动化数据评估流程,包括核心集采样和质量筛选等关键技术。通过这套方法论,可以科学地构建高质量的指令微调数据集,为训练性能卓越的大语言模型奠定基础。

2025-09-24 16:55:37 941

原创 BPE算法深度解析:从零到一构建语言模型的词元化引擎

摘要:本文深入解析字节对编码(BPE)算法在大语言模型中的关键作用。BPE通过逐步合并高频相邻字符或子词,构建能处理常见词和生僻词的词汇表。文章结合Python代码详细阐述了BPE的三个核心阶段:统计词频与初始化、学习合并规则的训练循环、以及应用合并规则进行词元化的过程。BPE算法通过贪婪的"统计-合并"策略,在控制词汇表规模的同时解决未登录词问题,成为现代语言模型成功的重要基石。

2025-09-11 16:43:43 984

原创 MoE:如何用一万亿参数的模型跑出十亿参数的成本?

混合专家模型(MoE)通过稀疏激活机制突破了大模型计算瓶颈。该架构由多个专业子网络(专家)和智能路由系统(门控网络)组成,仅针对每个输入激活最相关的少量专家,使得万亿参数模型能以十亿级模型的计算量运行。门控网络通过TopK选择机制和持续学习优化专家分配策略,实现计算资源的动态高效利用。这种"专业分工+按需调用"的模式,为超大语言模型的实用化提供了创新解决方案,在保持模型容量的同时显著提升了计算效率。

2025-09-11 11:32:32 825

原创 大模型注意力机制的六大前沿优化技术

摘要 Transformer的自注意力机制存在O(n²)复杂度问题,限制了其处理长文本的能力。针对这一挑战,研究者开发了多种优化技术,包括: 旋转位置嵌入(RoPE):通过旋转矩阵编码相对位置信息,提升长文本泛化能力; 稀疏注意力:如RoutingTransformer,利用聚类动态选择语义相关区域,降低计算量; FlashAttention:分块处理与增量Softmax优化I/O效率,减少内存读写; 多查询注意力(MQA):共享键值矩阵,显著降低推理显存占用; 多头潜在注意力(MHLA):引入可学习的潜在

2025-09-10 10:08:22 686

原创 银行风控知识图谱中台技术方案:应用、构建与挑战应对

摘要:知识图谱赋能银行智能风控 知识图谱通过建模客户、交易、机构间的复杂网络关系,为银行风控提供深度关联分析与实时洞察能力。其核心价值体现在: 应用场景:智能反欺诈(识别团伙作案与异常模式)、AML合规(追踪复杂资金流与受益人)、信用风险评估(构建客户全景视图) 技术架构:分层中台设计,涵盖异构数据整合、NLP知识抽取、分布式图存储(如Neo4j/Neptune)及图算法服务 创新突破:实现从"规则驱动"到"网络感知"的范式转变,查询性能较传统数据库提升千倍,支持实时

2025-08-03 10:51:55 1632

原创 n8n AI资讯聚合与分发自动化教程:从数据获取到微信与Notion集成

n8n自动化工作流指南:构建AI资讯聚合系统 本教程详细介绍了如何使用开源工具n8n搭建端到端的信息聚合与分发系统,实现每日自动获取AI领域最新资讯、GitHub代码、工具及热门平台内容。

2025-07-24 10:38:03 6077

原创 Vibe Coding:人工智能 + 语音 = 新型开发者工作流

VibeCoding:AI与语音驱动的编程新范式 VibeCoding是一种融合AI与语音技术的革命性开发方式,由OpenAI联合创始人Andrej Karpathy提出。这种范式将开发者角色转变为"描述需求-指导AI-优化结果"的工作流程,使用自然语言而非传统编码方式。核心工具包括GitHub Copilot、CursorAI等AI编程助手,以及WisprFlow等语音编码工具,能大幅提升开发效率。其优势体现在快速原型开发、降低编程门槛、保持创意心流等方面。未来开发者需掌握提示工程、强

2025-07-22 11:01:10 988

原创 OpenAI Codex CLI与 Google Gemini CLI 比较

OpenAICodexCLI与GoogleGeminiCLI是两大AI开发助手工具,在编程能力、语言支持、运行方式和适用场景上存在显著差异。CodexCLI擅长后端开发、代码精细控制和安全审查,支持19万tokens上下文;GeminiCLI则在前端框架、大数据处理和多模态内容生成方面表现突出,支持100万tokens上下文,并提供免费额度。实际使用中,初学者可优先选择GeminiCLI,企业团队推荐CodexCLI,全栈开发者建议两者配合使用。根据具体需求,Codex更适合工程化开发场景,Gemini则适

2025-07-21 22:55:54 1646

原创 macOS 笔记本下 Gemini CLI 客户端网络连接问题诊断与解决方案

近期在使用 Google Gemini CLI 客户端时,部分 macOS 用户可能会遇到网络连接问题,表现为命令行操作超时 (ETIMEDOUT) 或网络请求失败 (TypeError: fetch failed sending request)。特别是当用户处于受限网络环境(如公司/学校网络)或使用了 VPN/代理时,这类问题尤为突出。本文将详细记录一个典型的诊断过程,并提供最终有效的解决方案,希望能帮助遇到类似问题的用户。

2025-07-11 21:57:46 3987

原创 Cursor黑科技:AI编程实战,赋能开发者效率倍增

《AI编程革新者:Cursor深度解析》摘要 Cursor作为新一代AI集成IDE,以全项目智能理解为核心优势,突破了传统代码补全工具的局限。其黑科技主要体现在:1)多文件智能编辑能力,可执行跨模块复杂修改;2)沉浸式AI对话与自主代理模式,实现"一句话重构代码";3)全栈上下文感知,支持@符号精准管理代码库、网络及文档资源。实战中,Cursor能快速完成API集成、代码重构、复杂调试等任务,其Agent模式尤其擅长分解端到端开发需求。相比Copilot等工具,Cursor在项目级理解、

2025-07-02 12:41:37 1721

原创 AI 编程对决:Gemini CLI vs Claude Code,谁是最佳 AI 编码工具?

AI编码工具GeminiCLI与ClaudeCode对比分析:Google的GeminiCLI是开源命令行工具,擅长自动化任务和Google Cloud集成,适合DevOps和终端开发者;Anthropic的ClaudeCode则是付费协作助手,专注复杂代码库理解和多轮交互,适合团队开发和代码维护。二者各有优势:GeminiCLI在自动化部署和脚本编写上更高效,ClaudeCode在代码重构和结对编程中表现更优。最佳选择取决于开发者具体需求和工作场景,两者可互补使用以提升开发效率。

2025-07-01 10:11:52 1409

原创 深入理解 Rust 编译时的内存管理:告别运行时开销与揭秘“所有者”的魔力

Rust通过编译时所有权系统和生命周期检查实现了零成本内存管理,避免了传统手动内存管理的错误和垃圾回收的运行时开销。其核心机制包括:所有权确保内存唯一性,借用规则防止数据竞争,生命周期保证引用有效性。这种设计带来了操作系统层面的优势:消除GC停顿,提升CPU缓存命中率,确保实时性,减小内存占用。Rust的编译时内存管理同时兼顾了高性能和安全性,使其成为系统编程、嵌入式开发等对性能和可靠性要求严格场景的理想选择。

2025-06-30 08:30:00 1265

原创 Rust 编程教程:从入门到实践

《Rust编程入门指南》摘要 本教程系统介绍了Rust编程语言的核心概念和特性。从安装配置(通过rustup工具链)开始,逐步讲解了基础语法、所有权系统、结构体与枚举等核心内容,并深入探讨了泛型、Trait和生命周期等高级特性。 主要内容包括: 基础语法:变量、数据类型、函数和控制流 独特的所有权系统:移动语义、借用和生命周期 复合类型:结构体、枚举和match模式匹配 错误处理:Result和Option类型 高级特性:泛型编程、Trait系统和模块化管理 常用集合类型:Vec、String和HashMa

2025-06-29 15:23:28 1176

原创 uv:2025年Python包管理的新星——速度、选择与未来展望

摘要:Python包管理工具uv凭借卓越性能成为2025年推荐首选。作为Rust编写的高效工具,uv安装速度比pip快5-10倍,比conda快2-10倍,其原生uvadd命令更减少PyPy兼容开销。uv支持虚拟环境管理,通过uvvenv创建环境、uvsync同步依赖。建议搭配Python3.10+使用,特别适合追求极致速度的项目。与传统工具相比,uv专注Python生态,在多语言支持方面不如conda/pixi,但凭借安装速度和现代设计优势,正成为Python开发者的新选择。

2025-06-27 23:00:32 2387

原创 玩转大模型:从提示工程到人机协同,你的AI生产力指南

想让大模型(LLMs)乖乖听话,帮你高效工作?这可不是随便问两句就能搞定的事儿。它就像个武功盖世却初入江湖的少年侠客,你得手把手教,才能把它潜力百分百激发出来。而“提示工程”(Prompt Engineering),就是你教导它的“武功秘籍”!它能让你的“问题”变成“指令”,让AI从“随便答答”升级到“精准输出”。别以为这是码农的专利,这可是人人都能学会的“职场魔法”!

2025-06-22 19:50:02 923

原创 数据集:模型炼金术的“生命之水”——为何它是训练与微调的重中之重?

摘要:数据集是AI模型训练的核心基础,其质量直接影响模型性能。高质量数据能提升模型泛化能力,避免偏见,是连接通用知识与特定应用的桥梁。获取数据集有三种主要途径:使用公共数据集(如ImageNet、CIFAR)、自行采集标注(适合特定任务)以及数据增强(扩充样本多样性)。每种方法各有利弊,但关键原则是质量优于数量。在AI开发中,数据集的选择与处理往往是决定项目成败的首要因素。

2025-06-22 19:33:43 841

原创 你的AI“画室”:GANs最简实操教程

生成对抗网络(GANs)自诞生以来,便以其独特的对抗性训练机制彻底革新了人工智能生成内容的范式。本文通过一个简洁的MNIST手写数字生成实验,直观地展示了GANs如何从随机噪声中学习并创造出有意义的图像。更重要的是,这一核心技术正是当前文生图(Text-to-Image)领域取得突破性进展的基石。GANs的生成器扮演着“艺术家”的角色,从文本描述中提取语义信息,并将其转化为视觉特征,逐步构建出符合描述的图像;而判别器则充当“鉴赏家”,不断学习区分真实图像与生成图像的细微差别。正是这种持续的博弈,

2025-06-14 20:45:32 1055

原创 AI“画手”进化史:从“灵魂画作”到“妙笔生花”——文生图大模型技术深度解析

AI文生图技术从早期GANs时代的粗糙生成,发展到如今扩散模型时代的高质量、高效率创作。该技术通过潜在空间、VAEs、U-Net架构、文本编码器等核心技术,实现了从文字描述到逼真图像的转化。文生图技术已广泛应用于创意设计、营销、娱乐等领域,但仍面临人体渲染不准确、“AI幻觉”以及文本生成困难等技术挑战,同时偏见、虚假信息和版权等伦理问题也日益突出。未来,AI文生图将继续朝多模态集成、效率提升和负责任的AI开发方向发展,有望成为真正的“全能艺术家”。

2025-06-07 21:32:06 699

原创 Linux服务器开机启动全流程详解

Linux服务器启动过程分为四个精准协同的阶段:首先,BIOS/UEFI完成硬件自检与初始化;接着,GRUB引导加载程序定位并载入Linux内核及临时文件系统;然后内核接管流程,初始化硬件并挂载根文件系统;最后由systemd并行启动各项服务,达成系统目标状态。整个启动序列犹如数字化王国的苏醒仪式,从底层硬件到上层服务逐级激活,最终呈现可用的服务器环境。这个过程充分展现了Linux系统严谨的层次化设计理念。

2025-06-05 22:35:12 1091

原创 使用Claude-4-Sonnet修复Spring Boot 2.x安全漏洞的完整实战指南

本文记录了在不升级Spring Boot主版本的前提下,使用Claude-4-Sonnet AI助手修复四个关键CVE安全漏洞的完整过程。通过分层修复策略,包括依赖升级、安全配置增强和自定义过滤器实现,成功修复了Tomcat、Spring-webmvc等相关漏洞。AI助手在诊断分析、方案设计、代码实现和测试验证各阶段展现出全面能力,最终在保持系统稳定性和功能完整性的前提下完成了安全修复。修复后通过了全面的自动化安全测试,验证了防护措施的有效性,为类似场景提供了可参考的最佳实践方案。

2025-05-28 15:18:31 782

原创 AI“读心术”?揭秘:大模型不止会“接话茬儿”!

大型语言模型(LLM)是人工智能对话系统的核心技术,其复杂程度远超简单的"文字接龙"。LLM具备多层次结构,通过数以亿计的神经元协同工作来处理语言。它们经过海量数据预训练,并经过"对齐"优化使其输出更符合人类需求。不同于简单预测下一个词,高级LLM能进行深度推理和逻辑思考,如设计个性化旅行路线。训练这样的模型需要超级计算机集群支持,利用多张GPU并行计算。本质上,LLM是通过海量学习、精密架构和专业训练形成的智能系统,能够实现类人的理解和创造能力。

2025-05-27 11:15:24 507

原创 不用公式!用生活例子讲透Transformer,大模型为何强大

Transformer模型通过创新的注意力机制取代传统RNN的顺序处理方式,解决了翻译任务中的关键技术瓶颈。其核心优势在于:1.并行计算能力,使模型训练效率大幅提升;2.通过自注意力机制直接建立任意词间联系,有效捕捉长距离依赖关系;3.采用编码器-解码器架构实现源语言理解和目标语言生成的协同工作;4.引入位置编码保留词序信息。这些突破性设计使Transformer成为大模型的基础架构,在机器翻译等任务中展现出卓越性能和泛化能力,为后续大语言模型的发展奠定了基础。

2025-05-26 11:54:12 776

原创 操作系统底层工作原理简述

本文系统阐述了计算机底层工作原理,重点包括:1)基于冯诺依曼模型的五大核心组件(控制器、运算器、存储器、输入/输出系统)及其工作流程;2)CPU三级缓存架构(L1-L3)设计原理,缓存行概念及局部性原理(时间/空间)对性能的影响;3)CPU安全等级(ring0-ring3)与操作系统内存管理模式(用户/内核空间划分);4)进程与线程的本质区别及两种线程模型(KLT/ULT)特点;5)虚拟机栈指令集与寄存器指令集的架构差异。内容涵盖计算机体系结构、CPU优化技术及操作系统核心机制,为理解程序执行过程提供了基础

2025-05-26 10:37:40 902

基于 python 的知识图谱管理平台演示项目

知识图谱构建是一个复杂的过程,本演示项目通过模块化的设计和实际可运行的代码,演示了如何从原始文本数据构建出结构化的知识图谱。 四大核心模块 主体定义 (Entity Definition) - 定义本体结构、实体类型和关系类型 知识抽取 (Knowledge Extraction) - 从文本中抽取实体和关系 知识映射 (Knowledge Mapping) - 将抽取的知识映射到标准本体 知识融合 (Knowledge Fusion) - 合并多源知识,解决冲突 knowledge-graph-projects/ ├── kg_core/ # 主项目目录 │ ├── entity_definition/ # 主体定义模块 │ │ ├── ontology.py # 本体管理 │ │ ├── entity_types.py # 实体类型管理 │ │ └── relation_types.py # 关系类型管理 │ ├── knowledge_extraction/ # 知识抽取模块 │ │ ├── text_extractor.py # 文本预处理 │ │ ├── entity_extractor.py # 实体抽取 │ │ ├── relation_extractor.py # 关系抽取 │ │ └── pattern_extractor.py # 模式学习 │ ├── knowledge_mapping/ # 知识映射模块 │ │ ├── entity_mapper.py

2025-10-17

java 后端实现目录文件监控与传输服务的 demo 实现

监控指定文件目录是否有变化,将新的文件信息发送到kafka和将文件推送到hdfs。 针对于后端服务需要添加目录文件监控与传输模块需求场景,可以基于该 demo 进行直接修改。

2025-10-17

一键安装大数据集群 shell 脚本脚本(hadoop+hive+spark+flink+hudi),本地实操过

# ============================================================================== # 全功能大数据平台自动化安装脚本 (最终修正版 v5.0) # # 特性: # - 最终修正版,硬编码了正确的 Hudi 下载地址,解决了反复退出的问题。 # - 幂等性设计:脚本可安全重跑,自动跳过已完成的步骤。 # - 组件: Hadoop, Hive, Spark, Flink, Hudi # - 系统: CentOS/RHEL (YUM) # - 用户: 创建并使用 'hadoop' 用户 # # 前提条件: # 1. 在主节点 (MASTER_HOST) 上以 root 用户身份运行。 # 2. 所有节点之间已配置 root 用户的 SSH 免密登录。 # 3. 所有节点可以访问互联网。 # ==============================================================================

2025-10-15

嵌入式linux应用程序开发详解

最全的本关于嵌入式linux开发的精华资源,很难在网上找到

2008-08-22

linux内核源代码分析

关于linux内核工作原理,设计与实现,代码分析,可以对照着看源代码,很好的学习linux内核的资料。

2009-04-10

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除