(二)简单的NLP实例

本文介绍了文本处理中的关键方法,包括情感分析、文本相似度计算及文本分类等技术。通过实例展示了如何将文本转换为计算机可处理的数据形式,并利用TF-IDF进行特征权重计算。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、情感分析

1)数据:
s1=’this is a good book’
s2=’this is a awesome book’
s3=’this is a bad book’
s4=’this is a terrible book’
2)把数据处理成向量:(不关心单词出现的顺序)
统计上面文档出现过的所有单词有’this、is 、a 、good 、awesome、 bad、 terrible、 book’共8个;
句子例如:s1=[1 1 1 1 0 0 0 1]表示awesome、 bad、 terrible没出现,其他单词都出现,句子长度为所有单词总数8。
3)分别给句子s1、s2、s3、s4贴上lable作为训练集,然后用ML方法训练

2、文本相似度
weyouheworkhappyare
103011
102011
010100

表格中,第一行表示句子”he he he,we are happy”,其他类似,不关心单词出现的顺序,即用元素评率表示文本特征,则文本的相似度计算如下:

similarity=cos(θ)=ABABsimilarity=cos(θ)=A⋅B‖A‖‖B‖
3、文本分类
1)TF-IDF概念

TF: 即Term Frequency, 用来衡量⼀个term在⽂档中出现得有多频繁
TF(t) = (t出现在⽂档中的次数) / (⽂档中的term总数)

IDF: Inverse Document Frequency, 衡量⼀个term有多重要。
IDF(t) = log_e(⽂档总数 / 含有t的⽂档总数).

TF-IDF = TF * IDF

2)TF-IDF实例

⼀个⽂档有100个单词,其中单词baby出现了3次;且一共有10M的⽂档, baby出现在其中的1000个⽂档中。
那么,

TF(baby)=(3/100)=0.03TF(baby)=(3/100)=0.03

IDF(baby)=log(10,000,000/1,000)=4IDF(baby)=log(10,000,000/1,000)=4

TFIDF(baby)=TF(baby)IDF(baby)=0.034=0.12TF−IDF(baby)=TF(baby)∗IDF(baby)=0.03∗4=0.12
3)NLTK实现TF-IDF

这里写图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值