- 博客(14)
- 收藏
- 关注
原创 LangChain(一):总体架构
LangChain是一个模块化的大模型应用开发框架,其核心设计解决了传统大模型的三大痛点:知识局限性、工具调用缺失和工作流管理困难。框架采用核心层-集成层-应用层三级架构,包含四大核心组件:基础框架LangChain、监控工具LangSmith、部署工具LangServe和调度引擎LangGraph。从轻量级应用到复杂工作流均可适配,并通过分级缓存、分块处理等技术优化性能,实现大模型应用的高效开发和部署。
2025-07-02 19:52:03
1388
原创 【Android Studio】将 MobileNet v3(pt格式->量化) 模型部署在APP上
本文介绍了在Android Studio中开发图像检测应用的全流程。首先创建项目并配置Gradle版本、SDK和JDK环境。其次设计界面布局,使用ConstraintLayout构建包含Photo/Detect按钮、ImageView和TextView的UI。接着详细说明PyTorch模型转换过程,强调版本一致性要求。然后展示Android端关键代码,包括模型加载、图片处理、推理执行和结果显示。最后进行真机测试验证。整个过程涵盖了从界面设计到模型部署的完整开发链路,为移动端AI应用开发提供了实用参考。
2025-06-30 20:43:45
599
原创 【MobileNet v3 可视化界面】在电脑上实现可视化界面
本文介绍了基于PyQt5的深度学习推理界面开发,包含四部分内容:1)PyQt5库安装方法;2)界面设置;3)主要功能实现,包括GPU/CPU选择、模型文件加载、图片/视频/摄像头处理模块,以及结果显示功能;4)相关界面设计。重点展示了LoadImages和LoadStreams类对输入数据的处理流程,以及推理结果的显示方式,支持图片、视频和摄像头三种输入源的深度学习模型推理。
2025-06-30 20:43:06
335
原创 【使用自己的数据集】MobileNet V3 模型准备与模型训练
MobileNetV3是一个轻量级图像分类模型,其架构包含起始卷积层、中间MobileBlock模块和最终分类层。模型采用通道分离卷积和SE注意力机制实现高效计算,支持Large和Small两种配置。实验使用板球/足球/棒球数据集,通过固定输入尺寸(400×400)、冻结预训练参数和微调全连接层进行训练。结果显示该模型在保持精度的同时具有较高的推理速度,适用于移动端部署。推理阶段通过加载训练好的模型对输入图片进行分类预测。
2025-06-30 20:42:39
1419
原创 【Android Studio】将 ResNet50(pt格式->未量化) 模型部署在APP上
本文介绍了Android Studio开发工具的使用方法,包括其核心功能(模拟器、代码编辑器、调试工具等)和项目开发流程(创建项目、界面设计、代码编写、调试发布)。重点讲解了模型转换的Python代码实现(ResNet模型保存为.pt文件)和Android端的模型加载、图像处理及推理过程(Bitmap转Tensor、模型预测、结果解析)。最后提及真机测试环节,完整覆盖了从模型准备到移动端部署的开发全流程。
2025-06-19 22:30:09
937
原创 【ResNet50 可视化界面】在电脑上实现可视化界面
本文介绍了基于Python的PyQt5库开发GUI应用的关键技术和实现。首先概述了PyQt5的特点:跨平台性、丰富控件、布局管理、事件处理、国际化支持和信号槽机制等核心功能。接着详细说明了安装配置方法,并重点阐述了应用的功能实现:1)设备选择模块(GPU/CPU切换);2)模型加载模块(类别文件和权重选择);3)图像处理流程(包括格式转换和标准化);4)视频处理线程(WorkerThread类实现异步推理);5)结果显示界面(实时显示推理结果和性能指标)。整个系统通过PyQt5的信号槽机制实现各模块间通信,
2025-06-11 20:56:45
864
原创 transformers 中Trainer 设置【自定义损失函数 compute_loss 和评价指标 compute_metric】出现显存爆炸的现象与原因
在HuggingFace Trainer微调模型时,自定义损失函数和评价指标可能导致显存爆炸。在此文章给出主要的解决方法,
2025-06-10 20:51:41
1906
原创 大语言模型应用开发全流程实战指南:从运行、RAG到代理与安全部署
本文系统介绍了LLM应用开发的完整技术栈。在模型运行方面,对比了API调用与本地部署方案,详解了提示工程和结构化输出技术。RAG构建环节涵盖文档处理、嵌入模型选择和向量数据库使用,并介绍了高级检索优化方法。探讨了代理系统的自主决策框架和多代理协作方案,以及FlashAttention等推理优化技术。部署层面分析了从本地到云端的各种方案,最后强调了提示注入、数据投毒等安全风险及防御措施。
2025-06-06 10:24:55
1124
原创 大语言模型全流程开发技术详解:从架构、训练到对齐与量化
本文概述了大语言模型(LLM)的关键技术环节:1)架构演进,从Transformer到仅解码器架构,涵盖分词化、注意力机制和文本生成技术;2)预训练过程,强调数据准备、分布式训练策略及优化技术;3)训练后数据集的构建方法,包括合成数据生成和质量控制;4)监督微调(SFT)技术,对比完全微调与参数高效方法;5)偏好对齐算法,介绍DPO、GRPO和PPO三种主要方法;6)评估体系的构建,包含自动基准、人工评估和模型评估;7)量化技术,分析不同精度转换方法及优化策略。全文系统梳理了LLM开发全流程的核心技术要点。
2025-06-06 10:23:02
766
原创 【使用自己的数据集】ResNet50 模型准备与模型训练
ResNet通过引入残差结构解决了深度网络的退化问题,其主要创新点包括跨层连接和残差学习。残差结构使得网络能够更轻松地学习恒等映射,解决了梯度消失和优化困难问题。该网络采用瓶颈设计降低参数数量,适用于多种计算机视觉任务。实验表明,残差连接有效提升了深层网络的性能,训练误差和测试误差均得到改善。ResNet的关键优势在于不增加计算复杂度的情况下加深网络深度,通过简化学习目标实现更好的特征提取。在Fruits-360数据集上的应用验证了该方法的有效性。
2025-06-03 11:08:39
1288
原创 Lora 微调时参数的选择依据【从论文了解】
本内容重点介绍【7 UNDERSTANDING THE LOW-RANK UPDATES】的内容。该章节通过实证研究深入探讨了LoRA方法中低秩更新的性质,回答了三个关键问题,揭示了低秩适应矩阵(ΔW)的特性及其在任务适应中的作用。
2025-05-20 18:22:26
735
原创 Qwen2.5:命名实体微调、自定义模型输出格式
介绍如何使用Qwen2.5模型微调专有领域【命名实体识别】,并且使用 gradio 自己设计一个可视化界面,加载微调好的模型进行推理。
2025-05-13 22:38:36
2131
原创 Lora 代码参数介绍并实战
LoraConfig模块是用于配置LoRA(Low-Rank Adaptation)微调方法的核心模块,继承自PeftConfig,提供了一系列参数来控制LoRA的行为。关键参数包括:r(秩);target_modules(目标模块);lora_alpha(缩放因子);lora_dropout(Dropout率);bias(偏置)等。此外,TaskType模块用于标准化PEFT框架支持的任务类型,帮助用户明确任务目标并适配相应的参数高效微调策略。
2025-05-11 05:29:32
2625
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅