transformers库使用--tokenizer

本文介绍了如何使用transformers库中的tokenizer对文本进行预处理,包括初始化方法、基本操作以及`__call__`方法的高级用法。重点讲解了如何通过`__call__`方法实现快速的分词、编码和padding,适合处理大规模数据并保持模型输入一致性。

在我使用transformers进行预训练模型学习及微调的时候,需要先对数据进行预处理,然后经过处理过的数据才能送进bert模型里,这个过程中使用的主要的工具就是tokenizer。通过与相关预训练模型相关的tokenizer类建立tokenizer,例如,对于Roberta,我们可以使用与之相关的RobertaTokenizer,或者直接通过AutoTokenizer类,这个类能自动的识别所建立的tokenizer是与哪个bert模型相对应。通过tokenizer,它会将一个给定的文本分词成一个token序列,然后它会映射这些tokens成tokenizer的词汇表中token所对应的下标,在这个过程中,tokenizer还会增加一些预训练模型输入格式所要求的额外的符号,如,‘[CLS]’,'[SEP]'等。经过这个预处理后,就可以直接地“喂”进我们的预训练模型里面。

1. tokenizer的初始化及入门

1.1 初始化

通常初始化有两种,一种是通过 from_pretrained 方法,另一种是直接实例化RobertaTokenizer类,并在其中指定词表的路径。

  • from_pretrained

    from transformers import BertTokenizer
    TOKENIZER_PATH = "../input/huggingface-bert/bert-base-chinese"
    tokenizer = BertTokenizer.from_pretrained(TOKENIZER_PATH)
    

    TOKENIZER_PATH 是包含vocab.txt文件的目录

  • 直接实例化类

    from transformers import BertTokenizer
    tokenizer = BertTokenizer(vocab_file="./pretrain_model/bert-base-chinese/vocab.txt")
    

    该方法必须指定vocab_file

1.2 入门使用

  • tokenizer.tokenize(text:str): 分词,只能输入字符串
  • tokenizer.convert_tokens_to_ids(tokens:list): 将词转换成id
  • tokenizer.convert_ids_to_tokens(token_id: list): 将id转换成词
from transformers import BertTokenizer
tokenizer = BertTokenizer(vocab_file="./pretrain_model/bert-base-chinese/vocab.txt")

examples = ["我爱北京天安门", "天安门广场吃炸鸡"]

res = tokenizer.tokenize(examples[0])
print(res)

token_id = tokenizer.convert_tokens_to_ids(res)
print(token_id)

id2token = tokenizer.convert_ids_to_tokens(token_id)
print(id2token)

输出:

['我', '爱', '北', '京', '天', '安', '门']
[2769, 4263, 1266, 776, 1921, 2128, 7305]
['我', '爱', '北', '京', '天', '安', '门']

tokenizer里面的方encode, batch_encode, encode_plus, batch_encode_plus 将上面的两个步骤(分词、编码)都包含了,使用起来更加方便,不过这些方法在transformers的将来的版本中,会被遗弃,它们的全部的功能都集成到了__call__方法里,所以下一节重点讲解__call__方法

2. 更方便的使用tokenizer

第一节中需要先分词,再将token转换成id,此外输入到模型中还需要手工进行padding等操作,并且第一节中的方法只能处理单条数据。该章节将介绍如何一步到位,直接输入到模型。在此之前需要了解__call__方法中的一些参数

__call__( 
	text: typing.Union[str, typing.List[str], typing.List[typing.List[str]]],
	text_pair: typing.Union[str, typing.List[str], typing.List[typing.List[str]], NoneType] = None
	add_special_tokens: bool = True
	padding: typing.Union[bool, str, transformers.utils.generic.PaddingStrategy] = False
	truncation: typing.Union[bool, str, transformers.tokenization_utils_base.TruncationStrategy] = False
	max_length: typing.Optional[int] = None
	stride: int = 0
	is_split_into_words: bool = False
	pad_to_multiple_of: typing.Optional[int] = None
	return_tensors: typing.Union[str, transformers.utils.generic.TensorType, NoneType] = None
	return_token_type_ids: typing.Optional[bool] = None
	return_attention_mask: typing.Optional[bool] = Nonereturn_overflowing_tokens: bool = False
	return_special_tokens_mask: bool = False
	return_offsets_mapping: bool = False
	return_length: bool = Falseverbose: bool = True**kwargs 
	) → BatchEncoding

下面介绍几个经常用到的参数:

  • text: 需要被编码的文本,可以是一维或二维list
  • padding: 是否需要padding,可选如下几个值
    • True or 'longest',padding到一个batch中最长序列的长度
    • 'max_length', padding到由max_length参数指定的长度,如果没有指定max_length则padding到模型所能接受的最大长度
    • False or 'do_not_pad', 不进行padding
  • truncation: 是否要进行截断
    • True or 'longest_first',保留由max_length指定的长度,或者当max_length没有指定时,截取保留模型最大能接受的长度,对于sentence pair,截取长度最大的句子
    • False or 'do_not_truncate (default) 不截取
    • only_first,截取到max_length, 但是只截取sentence pair中的第一个句子
    • 'only_second',同理,只截取pair中第二个句子
  • max_length,句子最大长度,和padding及truncation相关
  • is_split_into_words 输入的句子是否已经分词好了,比如已经用空格分隔开
  • return_tensors 返回类型,默认是list类型,可选pt返回torch 的 tensor,tf返回tensorflow的tensor, npnumpy类型
  • return_length,是否返回编码的序列长度,default=False
from transformers import BertTokenizer
tokenizer = BertTokenizer(vocab_file="./pretrain_model/bert-base-chinese/vocab.txt")

examples = ["我爱北京天安门", "天安门广场吃炸鸡"]
res = tokenizer(examples, 
                padding="max_length", 
                truncation=True, 
                max_length=7, 
                return_tensors="pt",
                return_length=True)

print(res)
print(res["input_ids"].shape)

输出: 返回一个字典

{'input_ids': tensor([[ 101, 2769, 4263, 1266,  776, 1921,  102],
        			[ 101, 1921, 2128, 7305, 2408, 1767,  102]]),
 'token_type_ids': tensor([[0, 0, 0, 0, 0, 0, 0],
       					 [0, 0, 0, 0, 0, 0, 0]]), 
 'length': tensor([7, 7]), 
 'attention_mask': tensor([[1, 1, 1, 1, 1, 1, 1],
       					 [1, 1, 1, 1, 1, 1, 1]])}
       					 
torch.Size([2, 7])

2.1 最常用的方法

  • 每一个batch只padding到batch中最大长度,如果超过模型接受的最大长度,就截取到模型能接受最大长度
input_text = ["我爱北京天安门", "广场吃炸鸡"]
tok_res = tokenizer(input_text, 
                padding=True, 
                truncation=True, 
                max_length=512, 
                return_tensors="pt")

这样的好处是能够根据batch动态调整句子padding后长度,没必要每个batch都padding成相同的长度,比如第一个batch中最大长度为7,那第一batch最后每个句子都会padding到7,第二个batch中最大长度为10,最后第二batch中每个句子长度都会padding到10;但是每个batch句子的长度会不同,在某些情况下可能会有问题

  • 指定句子最大长度,每个batch都使用相同的句子长度
examples = ["我爱北京天安门", "广场吃炸鸡"]
res = tokenizer(examples, 
                padding="max_length", 
                truncation=True, 
                max_length=7, 
                return_tensors="pt",
                return_length=True)

这样无论第一个batch和第二个batch中最大长度为多少,都会padding或truncate到7

参考

transformers中,关于PreTrainedTokenizer的使用
hugging face call

基于 NSFW Model 色情图片识别鉴黄 后面更新视频检测 项目背景: 随着互联网的快速发展,网络上的信息量呈现出爆炸式的增长。然而,互联网上的内容良莠不齐,其中不乏一些不良信息,如色情、暴力等。这些信息对青少年的健康成长和社会风气产生了不良影响。为了净化网络环境,保护青少年免受不良信息的侵害,我国政府加大了对网络内容的监管力度。在此背景下,本项目应运而生,旨在实现对网络图片和视频的自动识别与过滤,助力构建清朗的网络空间。 项目简介: 本项目基于 NSFW(Not Safe For Work)Model,利用深度学习技术对色情图片进行识别与鉴黄。NSFW Model 是一种基于卷积神经网络(CNN)的图像识别模型,通过学习大量的色情图片和非色情图片,能够准确地判断一张图片是否含有色情内容。本项目在 NSFW Model 的基础上,进一步优化了模型结构,提高了识别的准确率和效率。 项目功能: 色情图片识别:用户上传图片后,系统会自动调用 NSFW Model 对图片进行识别,判断图片是否含有色情内容。如果含有色情内容,系统会给出相应的提示,并阻止图片的传播。 视频检测:针对网络视频,本项目采用帧提取技术,将视频分解为一帧帧图片,然后使用 NSFW Model 对这些图片进行识别。如果检测到含有色情内容的图片,系统会给出相应的提示,并阻止视频的传播。 实时监控:本项目可应用于网络直播、短视频平台等场景,实时监控画面内容,一旦检测到含有色情内容的画面,立即进行屏蔽处理,确保网络环境的纯洁。
### 如何在本地部署 NSFW 模型或服务 要在本地环境中成功部署 NSFW(不适宜工作场合内容)检测模型或服务,以下是详细的说明: #### 准备环境 为了确保能够顺利运行模型和服务,需要安装必要的依赖项。这些工具和库包括但不限于以下几类: - **Python 环境**: 推荐使用 Python 3.7 或更高版本。 - **Transformers 库**: 提供加载预训练模型的功能[^1]。 - **PyTorch/TensorFlow**: 支持深度学习框架的计算需求。 - **Pillow (PIL)**: 处理图像文件并将其转换为适合输入模型的形式。 具体命令如下所示: ```bash pip install transformers torch Pillow ``` #### 加载模型与测试 通过 Hugging Face 的 `transformers` 工具包可以直接访问已有的 NSFW 图片分类模型。例如,可以采用名为 `"Falconsai/nsfw_image_detection"` 的公开模型来完成此任务[^1]。 下面是一个简单的代码片段展示如何加载该模型并对单张图片执行预测操作: ```python from PIL import Image from transformers import pipeline def classify_nsfw(image_path): # 打开指定路径下的图片文件 img = Image.open(image_path) # 初始化 image-classification 流水线对象,并指明使用的特定模型名称 classifier = pipeline("image-classification", model="Falconsai/nsfw_image_detection") # 对传入的图片调用流水线方法得到其类别标签及其置信度分数列表形式的结果 result = classifier(img) return result if __name__ == "__main__": test_img_path = "<your_test_image>" output_results = classify_nsfw(test_img_path) print(output_results) ``` 注意替换 `<your_test_image>` 成实际存在的图片绝对或者相对地址字符串值之前再尝试运行以上脚本。 #### 构建 RESTful API 服务 如果希望进一步扩展功能至 Web 应用程序层面,则可考虑利用 Flask/Django 这样的轻量级 web 开发框架构建起支持 HTTP 请求交互的服务端接口。这里给出基于 FastAPI 实现的一个简单例子作为示范用途: ```python import uvicorn from fastapi import FastAPI, File, UploadFile from PIL import Image from io import BytesIO from typing import List from pydantic import BaseModel app = FastAPI() class Prediction(BaseModel): label: str score: float @app.post("/predict/", response_model=List[Prediction]) async def predict(file: UploadFile = File(...)): try: contents = await file.read() pil_image = Image.open(BytesIO(contents)) clf_pipeline = pipeline('image-classification', model='Falconsai/nsfw_image_detection') predictions = clf_pipeline(pil_image) formatted_preds = [{"label": pred['label'], "score": round(pred['score'], 4)} for pred in predictions] return formatted_preds except Exception as e: raise ValueError(f"Error processing uploaded file {e}") if __name__ == '__main__': uvicorn.run(app, host='0.0.0.0', port=8000) ``` 启动服务器之后即可向 `/predict/` 路径发送 POST 请求附带上传待分析的目标图片获取返回结果了。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值