从0到1微调安全大模型,如何通过各种开源框架在本地完成安全大模型的微调?

前言

本文将详细介绍如何通过各种开源框架在本地完成安全大模型的微调,从底层模型层来优化模型,做出适合安全研究人员的大模型

微调简介

微调,指的是在一个已经经过大规模、通用数据集预训练好的基础模型上,使用相对较小规模的、特定领域或特定任务的数据集,对该模型进行进一步训练的过程。

  • 微调 = 预训练模型 + 特定任务数据 + 进一步训练
  • 本质:是一种高效的迁移学习方法,利用预训练模型强大的通用能力,通过少量领域/任务数据对其进行针对性优化,使其适应具体的应用需求。
  • 目的:以较低的成本(相比预训练)让“通才”模型转变为特定领域的“专家”或特定任务的“能手”。

基础环境

硬件基础

GPU: Inter GTX5060 (100%跑,勉强够用)

CPU: Inter I9-14900HX (实际上用不到)

内存:32GB

图片

软件基础

操作系统:windows 11

框架: LLama-Factory (国产最热门的微调框架)

国内北航开源的低代码大模型训练框架,可以实现零代码微调,简单易学,功能强大,且目前热度很高,建议新手从这个开始入门,非常适合我这种小白

关于框架选择建议可以看https://www.zhihu.com/question/638803488/answer/84354509523

算法: LoRA (最著名的部分参数微调算法)

2021 年 Microsoft Research 提出,首次提出了通过低秩矩阵分解的方式来进行部分参数微调,极大推动了 AI 技术在多行业的广泛落地应用:LoRA: Low-Rank Adaptation of Large Language Models

基座模型:DeepSeek-R1-Distill-Qwen-1.5B
蒸馏技术通常用于通过将大模型(教师模型)的知识转移到小模型(学生模型)中,使得小模型能够在尽量保持性能的同时,显著减少模型的参数量和计算需求。

实操过程

\1. 搭建LLama-Factory环境

LLaMA-Factory 的 Github地址:https://github.com/hiyouga/LLaMA-Factory

克隆仓库

Plain Text git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git

切换到项目目录

Plain Text cd LLaMA-Factory

创建 conda 虚拟环境(一定要 3.10 的 python 版本,不然和 LLaMA-Factory 不兼容)

Plain Text conda create -n llama-factory python=3.10

激活虚拟环境

Plain Text conda activate llama-factory

在虚拟环境中安装 LLaMA Factory 相关依赖

Plain Text pip install -e “.[torch,metrics]”

注意:如报错 bash: pip: command not found ,先执行 conda install pip 即可

在虚拟环境安装 PyTorch(不安装微调的时候会报错滴)

查看自己的显卡支持的当前CUDA,windows命令为

Plain Text nvidia-smi

图片

然后去PyTorch官网上对应下载版本https://pytorch.org/get-started/locally/

图片

Plain Text pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu128

检验是否安装成功

Plain Text llamafactory-cli version

图片

启动 LLama-Factory 的可视化微调界面 (由 Gradio 驱动)

Plain Text llamafactory-cli webui

成功启动后会返回一个前端链接

图片

\2. Hugging Face下载基准模型

HuggingFace 是一个集中管理和共享预训练模型的平台 https://huggingface.co;

HuggingFace数据huggingface-cli 下载:https://huggingface.co/docs/huggingface_hub/main/en/guides/cli
从 HuggingFace 上下载模型有多种不同的方式,可以参考:如何快速下载huggingface模型——全方法总结

创建文件夹统一存放所有基座模型

Plain Text mkdir Hugging-Face

安装 HuggingFace 官方下载工具

Plain Text pip install -U huggingface_hub

修改 HuggingFace 的镜像源

Plain Text set HF_ENDPOINT=https://hf-mirror.com

修改模型下载的默认位置

Plain Text set HF_HOME=C:\Users\H\Desktop\llm\Hugging-Face

注意:这种配置方式只在当前 shell 会话中有效,如果你希望这个环境变量在每次启动终端时都生效,可以将其添加到你的环境变量配置文件中

检查环境变量是否生效

Plain Text huggingface-cli env

可以看到输入命令之后,其中的ENDPOINT已经修改为上述设置的

图片

执行下载命令

Plain Text huggingface-cli download --resume-download deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B

可以看到成功下载(PS:图中其实是之前已经下载了的)

图片

\3. 构造数据集

从hugging face中获取到数据集

访问https://huggingface.co/datasets?search=security 找些数据集

图片

随便找一个web安全的数据集吧https://huggingface.co/datasets/Conard/web-security

图片

优化数据格式为LLama-Factory的数据格式

图片

修改 dataset_info.json 文件,添加如下配置:

Plain Text                   "web-security": {                   "file_name": "web-security.json"                   },

将数据集 web-security.json 放到 LLama-Factory 的 data 目录

图片

\4. Llama Factory 微调

加载基准模型

语言先选择中文之后,在模型里边直接输入之前下载的会自动筛选,最重要的是下载下来的模型文件路径,注意:这里的路径是模型文件夹内部的模型特定快照的唯一哈希值,而不是整个模型文件夹

图片

然后就可以选择chat 加载模型,之后随便输入,当看到模型返回信息时证明模型已经成功加载并跑起来了

图片

微调配置

按照下图选一下,这里除了微调算法、数据集之外,剩下的超参数其实是按照默认的(具体参数可根据情况改动哈)

图片

选择微调算法 Lora

添加数据集 web-security

修改其他训练相关参数,如学习率、训练轮数、截断长度、验证集比例等

  • 学习率(Learning Rate):决定了模型每次更新时权重改变的幅度。过大可能会错过最优解;过小会学得很慢或陷入局部最优解
  • 训练轮数(Epochs):太少模型会欠拟合(没学好),太大会过拟合(学过头了)
  • 最大梯度范数(Max Gradient Norm):当梯度的值超过这个范围时会被截断,防止梯度爆炸现象
  • 最大样本数(Max Samples):每轮训练中最多使用的样本数
  • 计算类型(Computation Type):在训练时使用的数据类型,常见的有 float32 和 float16。在性能和精度之间找平衡
  • 截断长度(Truncation Length):处理长文本时如果太长超过这个阈值的部分会被截断掉,避免内存溢出
  • 批处理大小(Batch Size):由于内存限制,每轮训练我们要将训练集数据分批次送进去,这个批次大小就是 Batch Size
  • 梯度累积(Gradient Accumulation):默认情况下模型会在每个 batch 处理完后进行一次更新一个参数,但你可以通过设置这个梯度累计,让他直到处理完多个小批次的数据后才进行一次更新
  • 验证集比例(Validation Set Proportion):数据集分为训练集和验证集两个部分,训练集用来学习训练,验证集用来验证学习效果如何
  • 学习率调节器(Learning Rate Scheduler):在训练的过程中帮你自动调整优化学习率

开启微调

点击开始,此时就会调用电脑的GPU、CPU开始进行微调工作了,只需要等上那么八八四十九天

图片

可以看到在漫长的一段时间(最起码2h),终于得到了微调后的模型

图片

当微调完毕后可以通过观察损失曲线的变化观察最终损失来了解本次的微调效果,这里由于随便给的参数,所以数据结果也不重要了,实际上还凑合吧

检查点:保存的是模型在训练过程中的一个中间状态,包含了模型权重、训练过程中使用的配置(如学习率、批次大小)等信息,对LoRA来说,检查点包含了训练得到的 B 和 A 这两个低秩矩阵的权重

若微调效果不理想,你可以:

  • 使用更强的预训练模型
  • 增加数据量
  • 优化数据质量(数据清洗、数据增强等,可学习相关论文如何实现)
  • 调整训练参数,如学习率、训练轮数、优化器、批次大小等等

直接看结果吧,我们将刚才的微调后的数据加载到检查点路径,然后重新卸载、加载下模型,问他一个安全问题,可以看到结果还是挺不错滴!!!

图片

\5. 玩上微调后的模型

导出微调后的模型

图片

等待一会,基本上一两分钟吧,就可以导出成功

图片

FastAPI框架构造应用

使用Python FastAPI框架快速搭建一个服务端应用

from fastapi import FastAPI                   from transformers import AutoModelForCausalLM, AutoTokenizer                   import torch                    app = FastAPI()                    # 模型路径                   model_path = ""                    # 加载 tokenizer (分词器)                   tokenizer = AutoTokenizer.from_pretrained(model_path)                    # 加载模型并移动到可用设备(GPU/CPU)                   device = "cuda" if torch.cuda.is_available() else "cpu"                   print("使用设备:", device)                   model = AutoModelForCausalLM.from_pretrained(model_path).to(device)                    @app.get("/generate")                   async def generate_text(prompt: str):                       # 使用 tokenizer 编码输入的 prompt                       inputs = tokenizer(prompt, return_tensors="pt").to(device)                            # 使用模型生成文本                       outputs = model.generate(inputs["input_ids"], max_length=150)                            # 解码生成的输出                       generated_text = tokenizer.decode(outputs[0], skip_special_tokens=True)                            return {"generated_text": generated_text}

小提示在windows下transformers本身有点编码不兼容的问题,需要修改下这个包中的源代码

图片

修改完后加载起来,可以看到成功run起来啦

图片

图片

最后

为什么要学AI大模型

当下,⼈⼯智能市场迎来了爆发期,并逐渐进⼊以⼈⼯通⽤智能(AGI)为主导的新时代。企业纷纷官宣“ AI+ ”战略,为新兴技术⼈才创造丰富的就业机会,⼈才缺⼝将达 400 万!

DeepSeek问世以来,生成式AI和大模型技术爆发式增长,让很多岗位重新成了炙手可热的新星,岗位薪资远超很多后端岗位,在程序员中稳居前列。

在这里插入图片描述

与此同时AI与各行各业深度融合,飞速发展,成为炙手可热的新风口,企业非常需要了解AI、懂AI、会用AI的员工,纷纷开出高薪招聘AI大模型相关岗位。
在这里插入图片描述
最近很多程序员朋友都已经学习或者准备学习 AI 大模型,后台也经常会有小伙伴咨询学习路线和学习资料,我特别拜托北京清华大学学士和美国加州理工学院博士学位的鲁为民老师给大家这里给大家准备了一份涵盖了AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频 全系列的学习资料,这些学习资料不仅深入浅出,而且非常实用,让大家系统而高效地掌握AI大模型的各个知识点。

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

AI大模型系统学习路线

在面对AI大模型开发领域的复杂与深入,精准学习显得尤为重要。一份系统的技术路线图,不仅能够帮助开发者清晰地了解从入门到精通所需掌握的知识点,还能提供一条高效、有序的学习路径。

img

但知道是一回事,做又是另一回事,初学者最常遇到的问题主要是理论知识缺乏、资源和工具的限制、模型理解和调试的复杂性,在这基础上,找到高质量的学习资源,不浪费时间、不走弯路,又是重中之重。

AI大模型入门到实战的视频教程+项目包

看视频学习是一种高效、直观、灵活且富有吸引力的学习方式,可以更直观地展示过程,能有效提升学习兴趣和理解力,是现在获取知识的重要途径

在这里插入图片描述
光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述

海量AI大模型必读的经典书籍(PDF)

阅读AI大模型经典书籍可以帮助读者提高技术水平,开拓视野,掌握核心技术,提高解决问题的能力,同时也可以借鉴他人的经验。对于想要深入学习AI大模型开发的读者来说,阅读经典书籍是非常有必要的。
在这里插入图片描述

600+AI大模型报告(实时更新)

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。
在这里插入图片描述

AI大模型面试真题+答案解析

我们学习AI大模型必然是想找到高薪的工作,下面这些面试题都是总结当前最新、最热、最高频的面试题,并且每道题都有详细的答案,面试前刷完这套面试题资料,小小offer,不在话下
在这里插入图片描述

在这里插入图片描述

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值