task04:卷积情感分析

本文介绍了一种使用卷积神经网络(CNN)进行情感分析的方法。该模型通过多种大小的过滤器来捕捉文本中的双字符、三字符乃至n-字符组合。文章详细介绍了数据预处理流程、模型构建过程以及如何进行预测。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

task04:卷积情感分析

  • CNN:
    • 能够从局部输入图像块中提取特征,并能将表示模块化,同时可以高效第利用数据
    • 可以用于处理时序数据,时间可以被看作一个空间维度,就像二维图像的高度和宽度
  • 那么为什么要在文本上使用卷积神经网络呢?
    • 与3x3 filter可以查看图像块的方式相同,1x2 filter 可以查看一段文本中的两个连续单词,即双字符
    • 本模型将使用多个不同大小的filter,这些filter将查看文本中的bi-grams(a 1x2 filter)、tri-grams(a 1x3 filter)and/or n-grams(a 1x n n n filter)。
    • 与使用FastText模型的方法不同,本节不再需要刻意地创建bi-gram将它们附加到句子末尾。

一、数据预处理:

  • 构建vocab并加载预训练好的此嵌入:

    MAX_VOCAB_SIZE = 25_000
    
    TEXT.build_vocab(train_data, 
                     max_size = MAX_VOCAB_SIZE, 
                     vectors = "glove.6B.100d", 
                     unk_init = torch.Tensor.normal_)
    
    LABEL.build_vocab(train_data)
    
  • 创建迭代器:

    BATCH_SIZE = 64
    
    device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
    
    train_iterator, valid_iterator, test_iterator = data.BucketIterator.splits(
        (train_data, valid_data, test_data), 
        batch_size = BATCH_SIZE, 
        device = device)
    

二、构建模型:

  • 将一段文本中的每个单词沿着一个轴展开,向量中的元素沿着另一个维度展开。

  • 可以使用一个 [n x emb_dim] 的filter。可以完全覆盖 n n n 个words,因为它们的宽度为emb_dim 尺寸。

  • 一般情况下,filter 的宽度等于"image" 的宽度,我们得到的输出是一个向量,其元素数等于图像的高度(或词的长度)减去 filter 的高度加上一。

  • 实现:

    • 我们借助 nn.Conv2d实现卷积层
    • 之后,我们通过卷积层和池化层传递张量,在卷积层之后使用’ReLU’激活函数。池化层的另一个很好的特性是它们可以处理不同长度的句子。而卷积层的输出大小取决于输入的大小,不同的批次包含不同长度的句子。如果没有最大池层,线性层的输入将取决于输入语句的长度,为了避免这种情况,我们将所有句子修剪/填充到相同的长度,但是线性层来说,线性层的输入一直都是filter的总数。
    • 如果句子的长度小于实验设置的最大filter,那么必须将句子填充到最大filter的长度。在IMDb数据中不会存在这种情况,所以我们不必担心。
    • 最后,我们对合并之后的filter输出执行dropout操作,然后将它们通过线性层进行预测。
    class CNN(nn.Module):
        def __init__(self, vocab_size, embedding_dim, n_filters, filter_sizes, output_dim, 
                     dropout, pad_idx):
            
            super().__init__()
                    
            self.embedding = nn.Embedding(vocab_size, embedding_dim, padding_idx = pad_idx)
            
            self.convs = nn.ModuleList([
                                        nn.Conv2d(in_channels = 1, 
                                                  out_channels = n_filters, 
                                                  kernel_size = (fs, embedding_dim)) 
                                        for fs in filter_sizes
                                        ])
            
            self.fc = nn.Linear(len(filter_sizes) * n_filters, output_dim)
            
            self.dropout = nn.Dropout(dropout)
            
        def forward(self, text):
                    
            #text = [batch size, sent len]
            
            embedded = self.embedding(text)
                    
            #embedded = [batch size, sent len, emb dim]
            
            embedded = embedded.unsqueeze(1)
            
            #embedded = [batch size, 1, sent len, emb dim]
            
            conved = [F.relu(conv(embedded)).squeeze(3) for conv in self.convs]
                
            #conved_n = [batch size, n_filters, sent len - filter_sizes[n] + 1]
                    
            pooled = [F.max_pool1d(conv, conv.shape[2]).squeeze(2) for conv in conved]
            
            #pooled_n = [batch size, n_filters]
            
            cat = self.dropout(torch.cat(pooled, dim = 1))
    
            #cat = [batch size, n_filters * len(filter_sizes)]
                
            return self.fc(cat)
    

三、训练模型:

四、验证模型:

import spacy
nlp = spacy.load('en_core_web_sm')

def predict_sentiment(model, sentence, min_len = 5):
    model.eval()
    tokenized = [tok.text for tok in nlp.tokenizer(sentence)]
    if len(tokenized) < min_len:
        tokenized += ['<pad>'] * (min_len - len(tokenized))
    indexed = [TEXT.vocab.stoi[t] for t in tokenized]
    tensor = torch.LongTensor(indexed).to(device)
    tensor = tensor.unsqueeze(0)
    prediction = torch.sigmoid(model(tensor))
    return prediction.item()

参考资料:

DataWhale开源资料

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值