基于TensorFlow2.0,使用Bert模型生成词向量和句向量

该博客介绍了如何在TensorFlow2.0环境下,通过安装库、引入库和加载预训练的Bert模型,来编码句子并生成词向量和句向量。详细步骤包括下载模型、编码操作,输出结果包含词向量矩阵和句向量。
部署运行你感兴趣的模型镜像

一、前言

使用pytorch和TensorFlow调用的包是不一样的,这里只有TensorFlow的简单教程

一、使用步骤

1.安装库

pip install transformers

2.引入库

from transformers import AutoTokenizer,TFAutoModel
import tensorflow as tf

2.加载预训练模型

先下载预训练模型,模型地址
下载好的模型结构如下
预训练模型结构
加载模型

path="bert-base-uncased"
tokenizer=AutoTokenizer.from_pretrained(path)
model=TFAutoModel.from_pretrained(path)

3.编码句子

utt=['i am a student','how are you']
inputs=tokenizer(utt,return_tensors="tf",padding="max_length",truncation=True,max_length=20)
x_train=model(inputs)

4.运行结果

print("词向量形状",tf.shape(x_train[0]))
print("句向量形状",tf.shape(x_train[1]))

在这里插入图片描述
输出分两部分,第一部分是词向量,第二部分是句向量
第一部分是对每个句子的每个词编码为768的词向量
第二部分是对每个句子整体编码为768维向量


总结

本文通过transformer加载bert预训练模型,完成任意输入的句子级别和词级别的Embeddeding。如果提供的模型下载地址无法打开,可以留言告知。

您可能感兴趣的与本文相关的镜像

TensorFlow-v2.15

TensorFlow-v2.15

TensorFlow

TensorFlow 是由Google Brain 团队开发的开源机器学习框架,广泛应用于深度学习研究和生产环境。 它提供了一个灵活的平台,用于构建和训练各种机器学习模型

评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值