Pytorch环境下微调BERT以及调参教程

本文介绍如何在Pytorch环境中使用Huggingface的Transformers库微调BERT模型,适用于Quora问题对的相似性预测任务。涵盖安装库、加载数据、训练预测、超参数搜索等内容,提供完整Jupyter Notebook链接。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

使用Hugginface的Transformers库快速微调BERT等预训练模型,使其适应下游任务,本文以Quora问题对任务为例,对两问题表意是否一致进行预测

介绍

之前写了个微调BERT的入门教程,步骤比较多,我后来把它都封装成函数了,但用起来还是比较麻烦,而且有时候Transformer库里一些函数方法会改动,这就还要对代码进行调整。最近看Transformers的文档,发现它自己封装了一个Trainer函数,很好用,分享一下

本文完整的jupyter notebook地址为:https://github.com/yxf975/PTMs_learning/blob/main/%E9%A2%84%E8%AE%AD%E7%BB%83%E6%A8%A1%E5%9E%8B%E5%BE%AE%E8%B0%83.ipynb

这次依然还是在Quora问题对数据集上进行,任务这里再重复一遍,就是给定的两个问题,预测其表达的意思是否是相似的。这个任务是建立在这样的应用场景下的,在Quora这个软件里,很多人可能回问相似或同样的问题,但往往每个问题都需要来对其重复解答,很不效率。因此如果我们有个能判定问题是否相似或一致的算法,那么我们就能给出之前相似问题的答案,提高效率。

安装相应的库和导入包

废话不多说,直接上代码。首先先安装相应的库,一个是熟知的Hugginface的transformers,另一个是Hugginface的nlp数据集库,意味着我们之后直接用这个库载入数据。

!pip install transformers
!pip install nlp

之后导入需要用的包

import torch
import pandas as pd
from sklearn.model_selection import train_test_split
from transformers import BertForSequenceClassification, Trainer, TrainingArguments,BertTokenizerFast
from nlp import load_dataset
from nlp import Dataset
from sklearn.metrics import accuracy_score, precision_recall_fscore_support, log_loss
from scipy.special import softmax

载入数据集

这里有两种方情况:一个是载入nlp库里的数据集,还有一个就是使用本地的数据集,接下来对这两种情况都来尝试一下

载入nlp库里的数据集

载入数据集,使用nlp.load_dataset方法,具体完整的文档地址为https://huggingface.co/docs/datasets/v0.3.0/index.html。

# 从hugginface的数据集库中下载quora数据集
# 也可以全部读取完用dataset.train_test_split(test_size = 0.1)这样来读取
train_dataset = load_dataset('quora', split='train[:20%]') #读取前20%数据做训练集

validation_dataset = load_dataset('quora', split='train[30%:35%]') #读取30到35%之间数据用作验证集

test_dataset = load_dataset('quora', split='train[-10%:]')#取后10%用作测试集

接着导入预训练模型的分词器和模型,这里我用的还是BERT_BASE模型

tokenizer = BertTokenizerFast.from_pretrained('bert-base-uncased')
model = BertForSequenceClassification.from_pretrained('bert-base-uncased', num_labels=2,output_hidden_states = False)

预处理函数,这里是为了提取出每条样本中的问题文本并进行分词操作以及label,具体原数据集的形式可以自行查看,这里就不多说了。另外这里超参序列长度max_length是在这部分设置的,为了跑的快一点我设置的很小,最大为512。

def preprocess_function(examples):
    # Tokenize the texts
    result = tokenizer([examples['questions'][i]['text'][0] for i in range(len(examples['questions']))],
                       [examples['questions'][i]['text'][1] for i in range(len(examples['questions']))], 
                       padding=True, truncation=True, max_length=32)

    # M
内容概要:本文档详细介绍了在三台CentOS 7服务器(IP地址分别为192.168.0.157、192.168.0.158和192.168.0.159)上安装和配置Hadoop、Flink及其他大数据组件(如Hive、MySQL、Sqoop、Kafka、Zookeeper、HBase、Spark、Scala)的具体步骤。首先,文档说明了环境准备,包括配置主机名映射、SSH免密登录、JDK安装等。接着,详细描述了Hadoop集群的安装配置,包括SSH免密登录、JDK配置、Hadoop环境变量设置、HDFS和YARN配置文件修改、集群启动与测试。随后,依次介绍了MySQL、Hive、Sqoop、Kafka、Zookeeper、HBase、Spark、Scala和Flink的安装配置过程,包括解压、环境变量配置、配置文件修改、服务启动等关键步骤。最后,文档提供了每个组件的基本测试方法,确保安装成功。 适合人群:具备一定Linux基础和大数据组件基础知识的运维人员、大数据开发工程师以及系统管理员。 使用场景及目标:①为大数据平台建提供详细的安装指南,确保各组件能够顺利安装和配置;②帮助技术人员快速掌握Hadoop、Flink等大数据组件的安装与配置,提升工作效率;③适用于企业级大数据平台的建与维护,确保集群稳定运行。 其他说明:本文档不仅提供了详细的安装步骤,还涵盖了常见的配置项解释和故障排查建议。建议读者在安装过程中仔细阅读每一步骤,并根据实际情况调整配置参数。此外,文档中的命令和配置文件路径均为示例,实际操作时需根据具体环境进行适当修改。
在无线通信领域,天线阵列设计对于信号传播方向和覆盖范围的优化至关重要。本题要求设计一个广播电台的天线布局,形成特定的水平面波瓣图,即在东北方向实现最大辐射强度,在正东到正北的90°范围内辐射衰减最小且无零点;而在其余270°范围内允许出现零点,且正西和西南方向必须为零。为此,设计了一个由4个铅垂铁塔组成的阵列,各铁塔上的电流幅度相等,相位关系可自由调整,几何布置和间距不受限制。设计过程如下: 第一步:构建初级波瓣图 选取南北方向上的两个点源,间距为0.2λ(λ为电磁波波长),形成一个端射阵。通过调整相位差,使正南方向的辐射为零,计算得到初始相位差δ=252°。为了满足西南方向零辐射的要求,整体相位再偏移45°,得到初级波瓣图的表达式为E1=cos(36°cos(φ+45°)+126°)。 第二步:构建次级波瓣图 再选取一个点源位于正北方向,另一个点源位于西南方向,间距为0.4λ。调整相位差使西南方向的辐射为零,计算得到相位差δ=280°。同样整体偏移45°,得到次级波瓣图的表达式为E2=cos(72°cos(φ+45°)+140°)。 最终组合: 将初级波瓣图E1和次级波瓣图E2相乘,得到总阵的波瓣图E=E1×E2=cos(36°cos(φ+45°)+126°)×cos(72°cos(φ+45°)+140°)。通过编程实现计算并绘制波瓣图,可以看到三个阶段的波瓣图分别对应初级波瓣、次级波瓣和总波瓣,最终得到满足广播电台需求的总波瓣图。实验代码使用MATLAB编写,利用polar函数在极坐标下绘制波瓣图,并通过subplot分块显示不同阶段的波瓣图。这种设计方法体现了天线阵列设计的基本原理,即通过调整天线间的相对位置和相位关系,控制电磁波的辐射方向和强度,以满足特定的覆盖需求。这种设计在雷达、卫星通信和移动通信基站等无线通信系统中得到了广泛应用。
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值