大模型实战
文章平均质量分 91
艾墨舟启航
大模型应用开发实战
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
transformers 中Trainer 设置【自定义损失函数 compute_loss 和评价指标 compute_metric】出现显存爆炸的现象与原因
在HuggingFace Trainer微调模型时,自定义损失函数和评价指标可能导致显存爆炸。在此文章给出主要的解决方法,原创 2025-06-10 20:51:41 · 1939 阅读 · 0 评论 -
大语言模型应用开发全流程实战指南:从运行、RAG到代理与安全部署
本文系统介绍了LLM应用开发的完整技术栈。在模型运行方面,对比了API调用与本地部署方案,详解了提示工程和结构化输出技术。RAG构建环节涵盖文档处理、嵌入模型选择和向量数据库使用,并介绍了高级检索优化方法。探讨了代理系统的自主决策框架和多代理协作方案,以及FlashAttention等推理优化技术。部署层面分析了从本地到云端的各种方案,最后强调了提示注入、数据投毒等安全风险及防御措施。原创 2025-06-06 10:24:55 · 1128 阅读 · 0 评论 -
大语言模型全流程开发技术详解:从架构、训练到对齐与量化
本文概述了大语言模型(LLM)的关键技术环节:1)架构演进,从Transformer到仅解码器架构,涵盖分词化、注意力机制和文本生成技术;2)预训练过程,强调数据准备、分布式训练策略及优化技术;3)训练后数据集的构建方法,包括合成数据生成和质量控制;4)监督微调(SFT)技术,对比完全微调与参数高效方法;5)偏好对齐算法,介绍DPO、GRPO和PPO三种主要方法;6)评估体系的构建,包含自动基准、人工评估和模型评估;7)量化技术,分析不同精度转换方法及优化策略。全文系统梳理了LLM开发全流程的核心技术要点。原创 2025-06-06 10:23:02 · 770 阅读 · 0 评论 -
Qwen2.5:模型训练和推理核心参数介绍
本文主要介绍了在模型训练和生成过程中使用的一些核心参数和功能。原创 2025-05-21 22:18:53 · 2627 阅读 · 0 评论 -
Lora 微调时参数的选择依据【从论文了解】
本内容重点介绍【7 UNDERSTANDING THE LOW-RANK UPDATES】的内容。该章节通过实证研究深入探讨了LoRA方法中低秩更新的性质,回答了三个关键问题,揭示了低秩适应矩阵(ΔW)的特性及其在任务适应中的作用。原创 2025-05-20 18:22:26 · 740 阅读 · 0 评论 -
Qwen2.5:命名实体微调、自定义模型输出格式
介绍如何使用Qwen2.5模型微调专有领域【命名实体识别】,并且使用 gradio 自己设计一个可视化界面,加载微调好的模型进行推理。原创 2025-05-13 22:38:36 · 2144 阅读 · 0 评论 -
Lora 代码参数介绍并实战
LoraConfig模块是用于配置LoRA(Low-Rank Adaptation)微调方法的核心模块,继承自PeftConfig,提供了一系列参数来控制LoRA的行为。关键参数包括:r(秩);target_modules(目标模块);lora_alpha(缩放因子);lora_dropout(Dropout率);bias(偏置)等。此外,TaskType模块用于标准化PEFT框架支持的任务类型,帮助用户明确任务目标并适配相应的参数高效微调策略。原创 2025-05-11 05:29:32 · 2640 阅读 · 1 评论
分享