使用jieba进行关键字词提取(基于TF-IDF)

基于TF-IDF的关键词提取

TF-IDF:Term frequency–inverse document frequency

TF-IDF方法通过计算单文本词频(Term Frequency, TF)和逆文本频率指数(Inverse Document Frequency, IDF)得到词语权重,按照权重排序,输出关键字

原理:
TF:如果某个单词在这段文字中出现频率越高,TF越大,说明这个单词对于这段文字越重要
IDF:如果包含词条t的文档越少,也就是n越小,IDF越大,则说明词条t具有很好的类别区分能力
如果某个词出现的频率很高(TF越大),并且在其他文章中很少出现(IDF越大),即TF*IDF越大,则认为这个词适合用来分类,也适合用来当作关键字

python实现

jieba.analyse.extract_tags(string,topK=20,withWeight=True,allowPOS=(" "))
string:待处理语句
topK:返回TF、IDF权重最大的关键字的个数,默认20
withWeight:是否返回权重值,默认false
allowPOS:是否仅返回指定类型,默认为空

import jieba
import jieba.analyse

sentence = "本科及以上学历,计算机、数学等相关专业重点学校在校生(硕士为佳)-
### 使用 Jieba 实现中文分词TF-IDF 关键提取 #### 安装依赖库 为了使用 `jieba` 库进行中文分词以及结合 TF-IDF 提取关键,需先安装必要的 Python 包。 ```bash pip install jieba jieba-analyse ``` #### 中文分词基础操作 通过调用 `jieba.cut()` 方法可完成基本的中文分词工作。此函数返回的是一个生成器对象,可以通过列表推导式转换为字符串列表形式[^2]。 ```python import jieba text = "这是一个测试文本" seg_list = list(jieba.cut(text)) print(seg_list) ``` #### 结合 TF-IDF 进行关键提取 Jieba 提供了一个名为 `analyse` 的模块专门用来做关键抽取。其中包含了两种主要方式来获取文章的关键字:基于 TF-IDF 和 TextRank 算法。这里重点介绍基于 TF-IDF 的实现方案[^4]。 - **初始化 TfidfExtractor** 需要导入 `TfidfModel` 类,并创建实例化对象以便后续调用关键字提取接口。 - **设置停用表** 停用是指那些频繁出现在自然语言处理过程中但对语义贡献较小甚至无意义的汇(比如“的”,“了”)。合理配置这些汇有助于提高最终结果的质量。可通过自定义文件路径加载特定领域内的停用集合[^3]。 - **执行关键提取** 调用 `extract_tags()` 函数传入待解析的文章内容即可得到按照权重排序后的前 N 名关键,默认情况下会给出 topK=20 的结果集[^1]。 ```python from jieba import analyse tfidf_extractor = analyse.extractor() def extract_keywords(content, topK=5): """ Extract keywords from given content using tf-idf algorithm. Args: content (str): The input text to be processed. topK (int): Number of top ranked words returned. Returns: List[Tuple[str, float]]: A list containing tuples with each tuple being a pair consisting of the keyword and its corresponding weight score. """ result = tfidf_extractor.textrank(content, topK=topK, withWeight=True) return [(word, round(weight, 4)) for word, weight in result] sample_text = """近年来,随着人工智能技术的发展,越来越多的企业开始重视数据的价值,在业务决策中引入大数据分析手段成为趋势之一""" keywords_with_scores = extract_keywords(sample_text) for kw, score in keywords_with_scores: print(f"{kw}: {score}") ```
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值