52、自然语言处理:BERT微调与序列到序列架构解析

自然语言处理:BERT微调与序列到序列架构解析

1. BERT模型预训练与微调

在自然语言处理中,BERT模型是一个重要的里程碑。我们先来看一下注意力掩码在不同长度句子组成的小型语料库中的作用。

classics = [
    'Tell me, O Muse, of that hero',
    'Many cities did he visit',
    'Exiled from home am I ;'
]

我们为分词器指定填充选项,并设置DistilBERT的最大序列长度为512,同时要求对序列进行截断:

tokenizer(classics, padding=True, truncation=True, max_length=512)

输出结果如下:

{
    'input_ids': [
        [101, 2425, 2033, 1010, 1051, 18437, 1010, 1997, 2008, 5394, 102],
        [101, 2116, 3655, 2106, 2002, 3942, 102, 0, 0, 0, 0],
        [101, 14146, 2013, 2188, 2572, 1045, 1025, 102, 0, 0, 0]
    ],
    'attention_mask': [
        [1, 1, 1, 1
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值