Day28下 - 大模型微调:酒店评论情感分析

一、前置准备

1. 下载 LLaMA Factory

https://github.com/hiyouga/LLaMA-Factory.git

 搭建过程详见:https://blog.youkuaiyun.com/CSBLOG/article/details/144584581

2. 选择 预训练模型 和 prompt指令模型

预训练阶段在实际工作中,一般是用不上的,但我们可以学习了解。为了方便节省资源,我们可以先选个小点的模型试一试。

这里预训练模型选择 通义千问2.5-0.5B-预训练 ,指令模型选择 Qwen2.5-0.5B-Instruct

3. 下载 预训练模型 和 指令模型

下载预训练模型:

git clone https://www.modelscope.cn/Qwen/Qwen2.5-0.5B.git

下载指令模型:

git clone https://www.modelscope.cn/Qwen/Qwen2.5-0.5B-Instruct.git

4. 打开 LLaMA Factory 的webui,修改参数

(1)查看并确保 模型名称 和 模型路径 是否正确

 (2)选择推理引擎,实际工作中一般选择 vllm

 (3)按需决定是否还需要调整其他参数

5. 对话测试 

 二、数据处理

1. 数据集构建

通过查看 LLaMA-Factory/data/README_zh.md 文件可知,它需要什么样的数据。

 先找一小段文本尝试一下

import json

texts = """
1.流行性感冒:流行性感冒潜伏期多为1~7天,临床表现主要以发热(体温可达39~40℃)、头痛、肌痛和全身不适起病。除了全身症状,常有咽喉痛、干咳,可有鼻塞、流涕、胸骨后不适等。部分有呕吐、腹痛、腹泻等消化道症状。流感病原学检测阳性。
2.过敏性鼻炎:有过敏史,常年打喷嚏和流涕,鼻黏膜苍白伴有瘙痒感,鼻分泌物内嗜酸粒细胞增加等。
3.萎缩性鼻炎:大多是鼻腔通畅,鼻和鼻咽部干燥,鼻分泌物为块状、管筒状脓痂,伴有呼气恶臭、嗅觉减退等症状。
4.血管舒缩性鼻炎:无过敏史,常出现鼻黏膜间歇性血管充盈、打喷嚏和流清涕,吸入干燥空气后症状加重。
5.上呼吸道感染性疾病:如细菌性咽-扁桃体炎,疱疹性咽峡炎等均有其病变部位的特异性体征。前者有咽部充血,扁桃体肿大,表面有脓性分泌物等;后者软腭、咽和扁桃体表面有灰白色疱疹和浅表溃疡伴周围红晕。
"""

samples = []
for text in texts.split("\n"):
    if text:  # 检查行是否非空
        sample = dict(text=text)  # 创建一个字典,键为 'text',值为当前行的文本
        samples.append(sample)  # 将字典添加到 samples 列表中

运行结果:

 保存数据

with open(file="samples.json", mode="w", encoding="utf8") as f:
    json.dump(obj=samples, fp=f, ensure_ascii=False)

运行后,会在当前目录下生成 samples.json 文件。

想要在 LLaMA-Factory webui 的数据集中显示,还需要参照 README_zh.md 文件中的方式进行注册,因为它是通过dataset_info.json文件去找相关的数据。

03-29
### Qwen2.5版本介绍 Qwen2.5是一个经过优化升级的大规模语言模型系列,其设计目标在于提升多场景下的性能表现以及降低部署成本。该系列包含了不同参数量级的子型号,以满足多样化的应用场景需求。 #### 参数配置与适用范围 其中提到的Qwen2.5-0.5B模型具有约5亿参数[^1],这一特点使其特别适合于资源有限的运行环境,在此类环境中能够高效完成基础级别的自然语言处理任务,例如文本分类、情感分析和简单的对话生成等。 ### 功能特性概述 功能方面,Qwen2.5继承并增强了前代产品的核心优势,具体表现在以下几个维度: 1. **高效的推理效率**: 即使是在较小规模(如上述提及的Qwen2.5-0.5B)下也能保持良好的响应速度与准确性. 2. **广泛的适配能力**: 面向多种硬件平台进行了针对性调优,无论是云端服务器还是边缘设备均能实现平稳过渡. 3. **强大的泛化性能**: 经过大量数据训练后的Qwen2.5具备较强的理解力与创造力,可以应对复杂语境下的挑战. 4. **灵活可扩展架构**: 用户可根据实际业务需求选取最合适的变体进行集成开发,从而达到最佳性价比平衡点. ```python # 示例代码展示如何加载预训练好的Qwen2.5-0.5B模型用于简单文本预测任务 from transformers import AutoTokenizer, AutoModelForCausalLM tokenizer = AutoTokenizer.from_pretrained("qwen/Qwen2.5-0.5B") model = AutoModelForCausalLM.from_pretrained("qwen/Qwen2.5-0.5B") input_text = "你好世界" inputs = tokenizer(input_text, return_tensors="pt") outputs = model.generate(**inputs) print(tokenizer.decode(outputs[0], skip_special_tokens=True)) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值