gensim(四)--word2vec embedding

本文介绍如何使用Word2Vec算法训练文本数据集,包括模型的保存与加载,以及如何通过TSNE降维和绘图展示词向量的关系。

训练并保存模型

def train_savemodel():
    model = Word2Vec(PathLineSentences(directory), size=400, window=5, min_count=5, workers=multiprocessing.cpu_count(),
                     sg=1,  # 使用 skip-gram算法
                     hs=1,  # 使用分层softmax
                     negative=0)  # 不使用负采样和噪音
    model.save(modelpath)
    model.wv.save_word2vec_format(wv_path, binary=True)

加载模型

def loadmodel():
    en_wiki_word2vec_model = Word2Vec.load(modelpath)
    return en_wiki_word2vec_model

加载wv,如果不需要再次训练模型,那么只需要恢复wv就可以了,wv是去除了model中的权重参数和损失等细节的,可以直接用于查询。

def loadwv():
    word_vectors = KeyedVectors.load_word2vec_format(wv_path, binary=True)
    return word_vectors

打印每一个词以及他的相近的词

most_similars_pre = {word : md.wv.most_similar(word) for word in md.wv.index2word}
    for i, (key,word) in enumerate(most_similars_pre.items()):
        if i == 10:
            break
        print(key,word)

使用TSNE降维(这个操作很费时间),打印关系图:

def reduce_dimensions(model):
    num_dimensions=2
    vectors =[]
    labels = []
    for word in model.wv.vocab:
        vectors.append(model.wv[word])
        labels.append(word)
    vectors=np.asarray(vectors)
    labels =np.asarray(labels)
    #使用t-sne降低维度
    vectors=np.asarray(vectors)
    tsne =TSNE(n_components=num_dimensions, random_state=0)
    vectors = tsne.fit_transform(vectors)

    x_vals =[v[0] for v in vectors]
    y_vals =[v[1] for v in vectors]
    return x_vals,y_vals,labels
def plot_with_plotly(x_vals, y_vals, labels, plot_in_notebook=True):
    from plotly.offline import init_notebook_mode,iplot,plot
    import plotly.graph_objs as go

    trace =go.Scatter(x=x_vals,y=y_vals,mode='text',text=labels)
    data = [trace]

    if plot_in_notebook:
        init_notebook_mode(connected=True)
        iplot(data,filename='word-embedding-plot')
    else:
        plot(data, filename='word-embedding-plot.html')

def plot_with_matplotlib(x_vals, y_vals, labels):
    import matplotlib.pyplot as plt
    import random

    random.seed(0)
    plt.figure(figsize=(12,12))
    plt.scatter(x_vals,y_vals)

    indices =list(range(len(labels)))
    selected_indices = random.sample(indices,25)
    for i in selected_indices:
        plt.annotate(labels[i], (x_vals[i],y_vals[i]))
    plt.show()
 x_vals, y_vals, labels =reduce_dimensions(md)
    try:
        get_ipython()
    except Exception:
        plot_function = plot_with_matplotlib
    else:
        plot_function = plot_with_plotly
    plot_function(x_vals,y_vals,labels)

跑了半个小时的一张图
在这里插入图片描述

### 定义 - **One - Hot编码**:是一种将词语表示为向量的方法,把词汇表中的词排成一列,对于某个单词 A,如果它出现在上述词汇序列中的位置为 k,那么它的向量表示就是“第 k 位为1,其他位置都为0 ”的一个向量[^1]。 - **Word2Vec**:是一种用于学习词向量的模型,它可以将单词表示为低维的稠密向量,并且能够捕捉到单词之间的语义关系,如通过求距离的方式得知单词之间的相关性,采用分布式表示方法,用有限的维度表示无限的单词,向量里的数是实数[^3]。 - **Embedding**:是一个更宽泛的概念,指将离散的对象(如单词)映射为连续向量的过程,Word2Vec 可以看作是 Embedding 的一种具体实现方式,其目的是将文本表示成张量(矩阵)形式,使语言文本能作为计算机处理程序的输入进行解析工作[^4]。 ### 优缺点 #### One - Hot编码 - **优点**:实现简单直接,能够将单词唯一地表示为向量,且向量之间相互正交,适合一些简单的机器学习任务。 - **缺点**:向量是高维稀疏的,会占用大量的存储空间;无法表示单词之间的语义关系,例如无法得知两个向量之间的相关性;随着词汇表的增大,向量的维度会急剧增加。 #### Word2Vec - **优点**:得到的词向量是低维稠密的,相比 One - Hot 编码更节省空间;能够捕捉单词之间的语义信息,如相似性、类比关系等,可用于计算单词之间的相似度;可以用有限的维度表示无限的单词。 - **缺点**:训练过程相对复杂,需要大量的文本数据;对于一些生僻词或未登录词,可能无法得到很好的向量表示。 #### Embedding - **优点**:可以根据具体任务进行定制化训练,灵活性高;能够学习到单词在特定语境下的语义信息,提高模型在下游任务中的性能。 - **缺点**:训练成本较高,需要大量的计算资源和时间;不同的 Embedding 方法可能适用于不同的任务,选择合适的方法需要一定的经验和实验。 ### 代码示例 ```python import numpy as np from sklearn.preprocessing import OneHotEncoder from gensim.models import Word2Vec # One - Hot编码示例 words = ['apple', 'banana', 'cherry'] encoder = OneHotEncoder(sparse=False) one_hot_encoded = encoder.fit_transform(np.array(words).reshape(-1, 1)) print("One - Hot编码结果:") print(one_hot_encoded) # Word2Vec示例 sentences = [['apple', 'is', 'red'], ['banana', 'is', 'yellow']] model = Word2Vec(sentences, min_count=1) word_vector = model.wv['apple'] print("Word2Vec向量结果:") print(word_vector) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值