java分词技术(自动提取关键词,段落大意)hanlp

这篇博客介绍了如何使用hanlp这个Java外部包进行分词和关键词提取。作者提供了数据下载链接,并详细说明了数据解压位置、配置hanlp.properties文件以及代码实现的步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

这是老师大作业需要的技术才知道hanlp这个外部包  使用方法

包以及数据如下GIT下载很慢我传百度云了   链接:https://pan.baidu.com/s/14a22v1g_CAQN-G-k8f3Ovw  提取码:yfse 

1 把你的下载的data解压到你项目的根目录下 例如你项目文件夹叫 test  把data文件夹放在text文件夹下就行

2 配置 hanlp.properties 把这个文件放在你需要调用hanlp的目录下(那个文件调用了这外部包方法就放在跟这个文件同级的目录下) 配置里面的root 目录为你项目目录可以是绝对路径也可以是相对  例如 我的项目叫  ITcihuifenxi 我配置root 为  root=D:/hadoop-web/ITcihuifenxi/

3 上代码 

package com.test;
import java.util.List;

import com.hankcs.hanlp.HanLP;
import com.hankcs.hanlp.seg.common.Term;
import com.hankcs.hanlp.suggest.Suggester;
import com.hankcs.hanlp.tokenizer.NLPTokenizer;

public class MainTest {
    public static void main(String[] args) {
        System.out.println("首次编译运行时,HanLP会自动构建词典缓存,请稍候……\n");
        //第一次运行会有文件找不到的错误但不影响运行,缓存完成后就不会再有了
        System.out.println("标准分词:");
        System.out.println(HanLP.segment("你好,欢迎使用HanLP!"));
        System.out.println("\n");

        List<Term> termList = NLPTokenizer.segment("
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值