Datawhale Al夏令营 大模型(微调)Task02

部署运行你感兴趣的模型镜像

通过Task01里面对prompt和训练次数与学习率的调整发现,改变prompt对模型打分有提高,改变其余两个参数对其提高无很大的参考价值。所以Task02集中精力去调整prompt与扩充数据

下方为task01里面对参数和prompt调整的部分记录。

下表为不同prompt与得分对比。

表1 prompt与得分对比
中文promp英文prompt得分

(1)理解文中重要概念的含义

 (2)理解文中重要句子的含意

 (3)分析论点、论据和论证方法

(1)Understanding the main idea of the main idea.

(2)Understand the specific information in the text.

(3)infering the meaning of words and phrases from the context

54.2

(1)理解文中重要概念的含义

(2)理解文中重要句子的含意

(3)分析论点、论据和论证方法

(4)请概述文章的结构布局,包括引言、主体和结尾部分。分析这种结构如何帮助作者有效地传达其观点和论据

(5)文中作者采用了特定的语言风格来表达其思想。请识别并描述这种风格,并讨论它对读者理解文章内容的影响

(6)分析作者在文中表达的情感态度,包括其对主题的喜好、厌恶、赞赏或批评等。请提供文中的具体证据来支持你的分析

(7)考虑文中提到的文化元素或背景,讨论这些元素如何影响作者的观点和论证。请提供文中的相关引用,并解释它们在文中的作用

(8)基于文中的论点和论据,推断作者写作本文的主要意图。请结合文本内容和可能的社会、历史背景来支持你的推断

(9)在评价作者的论点时,运用批判性思维来分析其潜在的假设和前提。请指出任何可能的逻辑谬误或论证上的弱点,并提出可能的反驳点

(1)A question that prompts students to pinpoint the central theme or argument of the provided text.

(2)A question that requires students to recall and interpret specific details from the text.

(3)A question that challenges students to infer the meaning of new or complex vocabulary from the surrounding context.

(4)A question that encourages students to analyze how the text's structure enhances its meaning and impact.

(5)A question that assesses students' ability to identify examples that reinforce the main ideas.

(6)A question that invites students to make logical predictions based on the information presented in the text.

(7)A question that asks students to evaluate the author's purpose and the effectiveness of the text in achieving that purpose.

(8)A question that tests students' understanding of figurative language used by the author and its impact on the text.

(9)A question that explores the author's perspective or potential bias and how it shapes the presentation of information.

(10)A summarization task that requires students to encapsulate key points and discuss their wider implications.

60.5


得分图如下图所示:

我们在保持训练代数为10,学习率为0.00008,由上1表可知,改进的prompt对于大模型的得分是有改进的。Task01链接:https://blog.youkuaiyun.com/MCAC_123/article/details/141109930

调节出这个得分60.5的prompt后,我停止了对prompt的改进,接着来扩充数据。由于是高考出题,我选择的是2023年与2019年的高考全国范围的语文与英语试卷,来扩充数据集。

第一步,在云端baseline左侧下载英语与语文的训练集文件,然后根据其固定格式进行粘贴和扩充数据。利用下图同样的步骤下载英语训练集。

第二步,下载完成之后进行高考题填充,原来是60是多条特征,我陆续添加到80多条特征。如下图所示。语文与英语训练集做了同步增加。每套试题中,语文有三篇现代文阅读,英语有四篇现代文阅读,所以英语多于语文的训练条数。这些试题还没有增加完全。

第三步,将增加好的训练集上传到云端,加上最好的prompt生成最新的output文件。放到训练平台进行训练,次数与学习率都不做改变。增加两套试卷与四套试卷数据的得分如下。


           

增加两套试卷分数为60.4差别不大,增加四套试卷分数有了明显提升来到68分。我还在增加试题,此时评分还未出来。就先写到这。task03里面再做体现。

截止到目前,分数都在稳步提升,希望通过后续的操作,能提高到80分。

此次评分很随机,有些同学baseline就达到了70多的分数。自己接着努力提升。            

您可能感兴趣的与本文相关的镜像

Llama Factory

Llama Factory

模型微调
LLama-Factory

LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调

### 关于大模型微调技术的研究 大规模预训练模型的微调技术已成为当前自然语言处理(NLP)和其他机器学习领域的重要研究方向之一。以下是几个重要的研究主题和技术方法: #### 1. **低秩适配 (LoRA)** Low-Rank Adaptation (LoRA)[^3] 是一种高效的微调策略,旨在减少参数更新的数量并降低计算成本。该方法通过分解权重矩阵为两个较低维度的矩阵来进行优化,从而实现高效的学习过程。 ```python import torch.nn as nn class LoRALinear(nn.Module): def __init__(self, in_features, out_features, rank=4): super(LoRALinear, self).__init__() self.linear = nn.Linear(in_features, out_features) self.lora_A = nn.Parameter(torch.randn(rank, in_features)) self.lora_B = nn.Parameter(torch.randn(out_features, rank)) def forward(self, x): base_output = self.linear(x) lora_output = self.linear.weight @ self.lora_A @ self.lora_B.T return base_output + lora_output ``` 此方法特别适用于资源受限环境下的应用开发。 --- #### 2. **迁移学习中的 Fine-Tuning 方法** Fine-Tuning 的核心在于利用已有的大型预训练模型作为基础,在目标任务的小型数据集上进一步调整其参数[^2]。这种方法不仅减少了对海量标注数据的需求,还提高了模型泛化能力[^4]。 具体而言,BERT 等 Transformer 架构可以通过以下方式完成微调: - 替换最后一层分类器以匹配目标任务; - 使用梯度下降算法逐步修改部分或全部可训练变量。 --- #### 推荐阅读的相关论文列表如下: 1. **"Parameter-Efficient Transfer Learning for NLP" by Houlsby et al., ACL 2019**: 提出了 Adapter 模块的概念,允许仅针对少量新增加组件执行反向传播操作。 2. **"BitFit: Simple Parameter-efficient Fine-tuning for Transformers" by Ibraheem et al., EMNLP 2021**: BitFit 方案表明即使只调节偏置项也能取得不错的效果。 3. **"PPT: Pre-train and Prompt Tuning with Discrete Soft Prompts for Efficient Text Generation" by Liang et al., NeurIPS 2022**: 结合提示工程与传统细调手段提升生成质量的同时保持效率优势。 4. **"LoRA: Low-Rank Adaptation of Large Language Models" by Hu et al., arXiv preprint**, which introduces the low-rank adaptation technique mentioned earlier. 这些文章均围绕如何有效且经济地改进现有超大规模神经网络展开讨论。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值