Kaggle情感分析(Bag of Words Meets Bags of Popcorn)

本文介绍了在Kaggle上的情感分析任务,通过加载数据,使用LSTM和CNN模型,以及预训练的Word2Vec进行文本分类。实验结果显示,不使用Word2Vec的模型表现不佳,而加入预训练的Word2Vec或Dropout后,模型性能有所提升。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Kaggle上有两个情感分析的任务,这是其中的一个Bag of Words Meets Bags of Popcorn。任务虽然已经结束了,但是还有点研究的意义。
https://www.kaggle.com/c/word2vec-nlp-tutorial/data
这是一个炫耀Word2vec能力的竞赛,但是偏偏有人就是不用word2vec。
这个Blog写了用简单的TDF 作为Feature,然后用简单的M-Bayesian方法来进行分类。http://nbviewer.ipython.org/github/jmsteinw/Notebooks/blob/master/NLP_Movies.ipynb

1 测试加载数据

test1.py基本拷贝了该Blog的代码,20个CrossValidation的正确率是0.949631168。

2 写一个基于LSTM的模型

将文章转换为一个word sequence,然后将每个word映射为一个向量,在上面直接用LSTM来做Classification。

1_mr_lstm.py只是用LSTM最后一个的输出:

(‘Train ‘, 0.31977043441405351, ‘Valid ‘, 0.40485674490569001)

2_mr_lstm.py用LSTM输出sequence的mean:

<
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值