一个API调用27个NLP预训练模型:BERT、GPT-2全囊括,像导入NumPy一样容易

Pytorch-Transformers 1.0库提供了一个API,方便调用包括BERT、GPT-2在内的27个NLP预训练模型,实现与原始性能相当,简化了自然语言处理的研究和应用。库内含六种常用NLP模型的PyTorch实现、预训练权重和转换工具,支持快速上手和多种环境。作者是一位跨界科学家,目前在Huggingface Inc.领导科研团队。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

鱼羊 发自 凹非寺 
量子位 报道 | 公众号 QbitAI

只需一个API,就能调用BERT、XLM等多种语言模型,逆天的GPT-2也一样轻松到碗里来,这样的模型库你是否期待?

现在,真的有人完成了这一惊人工作,推出了堪称最先进的自然语言处理预训练模型库。

六种架构,27个预训练模型,简单易用,鹅妹子嘤。

640?wx_fmt=jpeg

其名为Pytorch-Transformers 1.0

登场数小时,获赞1000+,网友忍不住惊叹:这简直就是上帝的工作。

640?wx_fmt=png

Pytorch-Transformers 1.0

从模型分析到生产加速,对自然语言处理研究人员来说,简直是一库在手,天下我有。

目前这个库中包含PyTorch实现,预训练模型权重,数据集和六个模型的转换工具。

六种NLP模型

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值