文本分词

博客聚焦于文本分词,文本分词是自然语言处理中的重要环节,它能将文本切分成有意义的词语,为后续的语义分析、文本分类等任务奠定基础。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

# -*- coding: utf-8 -*-
"""
Created on Wed Jul 11 13:25:13 2018

@author: Nancy~
"""

import requests
import urllib
import json

def get_access_token():
    host = 'https://aip.baidubce.com/oauth/2.0/token?grant_type=client_credentials&client_id=De2cr4FTYqhH0hwe4GizCpa4&client_secret=GzwzYGopzZA16LQWQ9OLG3k58P4WRZLm'
    request = urllib.request.Request(host)
    request.add_header('Content-Type', 'application/json; charset=UTF-8')
    response = urllib.request.urlopen(request)
    content = response.read().decode('utf-8')
    rdata = json.loads(content)
    return rdata['access_token']
    
sentence="2016年2月14日,徐荣霞与常代峰向东台市人民法院诉讼离婚,后经东台法院判决双方离婚,婚生子常凯随常代峰生活,徐荣霞自2016年2月起每月给付抚养费300元至婚生子独立生活时止,该款分别于每年的6月30日前和12月30日前给付。因徐荣霞未按判决履行,常凯向东台法院申请强制执行。"
url='https://aip.baidubce.com/rpc/2.0/nlp/v1/lexer?access_token='+get_access_token()
headers={"Content-Type":"application/.json"}
data={
    "text":sentence
}
data=json.dumps(data).encode('GBK')
request_res=requests.request('post',url,headers=headers,data=data)
content=request_res.text
content=json.loads(content)
bd_list=[]
for a in content['items']:
    bd_list.append(a['item'])
print("  ".join(bd_list))
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值