数据分析中的分词

数据分析的其中一个步骤是对输入内容分词,内容中可能含有垃圾词或

无意义词或分词分错的,因此用停用词词典和几个正则表达式进行过滤,

之前处理的量级大约是10G这个量级,处理速度挺好。

 

这次增加很多数据源,处理量级上升到1T级别,这些分析处理的速度明显感觉很慢,

通过性能分析发现用正则表达式来match,判断是否是垃圾词的方式性能比较差,

如果去除这些正则,处理速度能提高一倍,试着把各个正则转换成字符串查找,

比如

 

\\d+(\\.\\d)?\\d*([\u4e00-\u9fa5]*[a-zA-Z]*)

用来匹配数字+中文的词,比如0.99元 5公斤等,这些逻辑简化成词包含.或包含数字和中文就认为是垃圾词,

处理精度几乎没下降,但是速度相当于去掉正则。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值