维基百科简体中文语料训练word2vec词向量

步骤:

1.下载维基百科中文语料

2.使用工具从压缩包中抽取正文文本

3.将繁体字转简体字

4.分词

5.训练模型

6.测试模型

1.下载维基百科中文语料

语料下载地址:https://dumps.wikimedia.org/zhwiki/

有不同时间段的下载地址,我们需要训练词向量,请选择包含articles.xml.bz2字段的链接(包含词条正文)。可以发现有不同大小的包,包越大训练的词向量越精确,训练时间也越长。下载完成后得到一个压缩包,先不要解压,后面用工具进行处理。
这是我下载的语料,161 MB。


2.使用工具从压缩包中抽取正文文本

可以使用Gensim工具包中提供的wiki数据的抽取处理类WikiCorpus,或Wikipedia Extractor脚本文件。

这里使用Wikipedia Extractor从压缩包提取正文文本,Wikipedia Extractor是意大利人用 Python 写的一个维基百科抽取器,使用非常方便。

Wikipedia Extractor下载地址:https://blog.youkuaiyun.com/qq_41648012/article/details/105217726

将里面的代码复制到一个python文件中,命名为WikiExtractor.py

将压缩包zhwiki-20200101-pages-articles1.xml-p1p162886.bz2和抽取器WikiExtractor.py放在同一个文件夹中,使用cmd中cd定位到该文件夹后,使用一下命令提取正文文本:

python WikiExtractor.py -b 500M -o wiki_00 zhwiki-20200101-pages-articles1.xml-p1p162886.bz2

参数说明:
1.WikiExtractor.py里面存放Wikipedia Extractor代码;
2.-b 1000M表示的是以1000M为单位进行切分,有时候可能语料太大,我们可能需要切分成几个小的文件(默认),这里由于我需要处理的包只有161 MB,所以存入一个文件就行了,所以只需要设置的大小比161 MB大即可;
3.wiki_00:需要将提取的文件存放的路径;
4.zhwiki-20200101-pages-articles1.xml-p1p162886.bz2:需要进行提取的.bz2文件的路径;

打开wiki_00文件,发现语料繁体简体字混杂:


3.将繁体字转简体字

使用opencc工具将繁体字转简体字,在下面的链接选择合适的版本,点击下载后解压即可使用。

opencc下载地址:https://bintray.com/package/files/byvoid/opencc/OpenCC

我选择的是opencc-1.0.1-win64.7z版本。将wiki_00文件放入刚刚解压的opencc-1.0.1-win64文件夹中,使用cmd中cd定位到opencc-1.0.1-win64文件夹中,然后执行以下命令:

opencc -i wiki_00 -o zhwiki_jian_zh.txt -c t2s.json

发现多出来zhwiki_jian_zh.txt文件:


4.分词

这里使用jieba分词工具进行分词,执行如下代码:

import jieba.analyse
import codecs

#以写的方式打开原始的简体中文语料库
f=codecs.open('C:\\Users\\28612\\Desktop\\test\\zhwiki_jian_zh.txt','r',encoding="utf8")
#将分完词的语料写入到wiki_jian_zh_seg-189.5.txt文件中
target = codecs.open("C:\\Users\\28612\\Desktop\\test\\wiki_jian_zh_seg-189.5.txt", 'w',encoding="utf8")

print('open files')
line_num=1
line = f.readline()

#循环遍历每一行,并对这一行进行分词操作
#如果下一行没有内容的话,就会readline会返回-1,则while -1就会跳出循环
while line:
    print('---- processing ', line_num, ' article----------------')
    line_seg = " ".join(jieba.cut(line))
    target.writelines(line_seg)
    line_num = line_num + 1
    line = f.readline()

#关闭两个文件流,并退出程序
f.close()
target.close()
exit()

得到分词文件wiki_jian_zh_seg-189.5.txt:

(可以看出有些英文字母和标点没有去除,有需要的可以去除)


5.训练模型

通过Gensim模块中的word2vec函数来训练语料:

import logging
import os.path
import sys
import multiprocessing
from gensim.models import Word2Vec
from gensim.models.word2vec import LineSentence


if __name__ == '__main__':
    logger = logging.getLogger('my')
    #1.format: 指定输出的格式和内容,format可以输出很多有用信息,
    #%(asctime)s: 打印日志的时间
    #%(levelname)s: 打印日志级别名称
    #%(message)s: 打印日志信息
    logging.basicConfig(format='%(asctime)s: %(levelname)s: %(message)s')
    logging.root.setLevel(level=logging.INFO)
    #打印这是一个通知日志
    logger.info("running %s" % ' '.join(sys.argv))
    # check and process input arguments

    #inp:分好词的文本
    #outp1:训练好的模型
    #outp2:得到的词向量

    inp='C:\\Users\\28612\\Desktop\\test\\wiki_jian_zh_seg-189.5.txt'
    outp1='C:\\Users\\28612\\Desktop\\test\\wiki_zh_jian_text.model'
    outp2='C:\\Users\\28612\\Desktop\\test\\wiki_zh_jian_text.vector'

    '''
    LineSentence(inp):格式简单:一句话=一行; 单词已经过预处理并被空格分隔。
    size:是每个词的向量维度; 
    window:是词向量训练时的上下文扫描窗口大小,窗口为5就是考虑前5个词和后5个词; 
    min-count:设置最低频率,默认是5,如果一个词语在文档中出现的次数小于5,那么就会丢弃; 
    workers:是训练的进程数(需要更精准的解释,请指正),默认是当前运行机器的处理器核数。这些参数先记住就可以了。
    sg ({0, 1}, optional) – 模型的训练算法: 1: skip-gram; 0: CBOW
    alpha (float, optional) – 初始学习率
    iter (int, optional) – 迭代次数,默认为5
    '''
    model = Word2Vec(LineSentence(inp), size=25, window=2, min_count=20, workers=multiprocessing.cpu_count())
    model.save(outp1)
    model.wv.save_word2vec_format(outp2, binary=False)

inp为分好词的语料;
outp1为训练好的模型存放的文件,需要使用模型时直接从outp1中读取;
outp2为训练好的模型以向量的形式存放在文件中;

代码中相关参数可以自己查资料调整,模型跑了一天一夜。。。
记得把这个改成从不,不然睡一觉起来发现程序没运行

训练好后得到了如下两个文件:

wiki_zh_jian_text.vector:

wiki_zh_jian_text.model:


6.测试模型
from gensim.models import Word2Vec

en_wiki_word2vec_model = Word2Vec.load('C:\\Users\\28612\\Desktop\\test\\wiki_zh_jian_text.model')
testwords = ['数学','计算机','苹果']
for i in range(len(testwords)):
    res = en_wiki_word2vec_model.most_similar(testwords[i])
    print(testwords[i])
    print(res)

运行结果:


参考:

维基百科简体中文语料的提取:https://zhuanlan.zhihu.com/p/39960476
使用Gensim模块训练词向量:https://zhuanlan.zhihu.com/p/40016964

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值