自然语言处理中的文本特征提取与模型应用
1. 模型评估与AUC
在自然语言处理任务中,评估模型的性能是至关重要的。通过以下代码可以选择所有模型中最佳的AUC(Area Under the Curve):
print(paste("max AUC =", round(max(fit$cvm), 4)))
运行结果示例:
## [1] "max AUC = 0.7276"
这里, x 是一个矩阵, y 是响应变量。得到的AUC约为0.73,对于小样本量来说,这代表了一个相对较好的预测模型。
2. TF-IDF
为了提升文档词矩阵(DTM)的性能,引入了TF-IDF(词频 - 逆文档频率)。与单纯的词频不同,TF-IDF衡量的是一个词的相对重要性。如果一个词几乎出现在每篇文档中,那么这个词会被认为是常见词,权重较小;相反,罕见词则被认为更具信息价值。
2.1 词频(TF)
TF是一个词在文档中出现的次数与该文档中出现最频繁的词的出现次数的比值,用公式表示为:
[ TF(t, d) = \frac{f_d(t)}{\max_{w \in d} f_d(w)} ]
其中,(f_d(t)) 表示词 (t) 在文档 (d) 中出现的次数。
2.2 逆文档频率(IDF)
TF的定义可能会使一些无关紧要但在长文本中自然频繁出现的词获得高分,即使在之前
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



