【人工智能II】循环神经网络NLP-情感分类

参考代码链接: https://aistudio.baidu.com/aistudio/projectdetail/78968
学习笔记整理,防止忘记

任务介绍

用LSTM对IMDB电影评论数据集进行分类。IMDB数据集是一个对电影评论标注为正向评论与负向评论的数据集,共有25000条文本数据作为训练集,25000条文本数据作为测试集。百度平台该数据集已经经过预处理:评论(单词序列)已经被转换为整数序列,其中每个整数代表字典中的某个单词。

过程(代码)

前期准备

导入必要的包

import paddle
import paddle.dataset.imdb as imdb
import paddle.fluid as fluid
import numpy as np
import os

获取数据字典

  • 数据是以数据标签的方式表示一个句子。每个句子都是一串数字来表示,每个数字对应一个单词。
  • 数据集会有一个数据集字典,这个字典是训练数据中出现的单词对应的数字标签。
print("加载数据字典ing")'
word_dict = imdb.word_dict()
#获取数据字典长度
dict_dim = len(word_dict)
print('完成')

获取训练和预测数据

# 获取训练和预测数据
print("加载训练数据中...")
train_reader = paddle.batch(paddle.reader.shuffle(imdb.train(word_dict), 152, batch_size=128)
print("加载测试数据中...")
test_reader = paddle.batch(imdb.test(word_dict),batch_size=128)
print('完成')

定义长短期记忆网络

  • 遗忘门:控制记忆消失的程度
  • 输入门:决定了当前时刻的输入信息,有多少信息将添加到记忆信息流中,与遗忘门计算公式一致,需要激活函数来实现
  • 记忆状态:计算当前输入与过去的记忆具有的信息总量
  • 输出门:控制着有多少记忆信息将被用于下一阶段更新
# 定义长短期记忆网络
def lstm_net(ipt, input_dim):
    # 以数据的IDs作为输入
    emb = fluid.layers.embedding(input=ipt, size=[input_dim, 128], is_sparse=True)
    # 第一个全连接层
    fc1 = fluid.layers.fc(input=emb, size=128)
    # 进行一个长短期记忆操作
    #返回:隐藏状态(hidden state),LSTM的神经元状态
    #size=4*hidden_size
    lstm1, _ = fluid
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值