Transformer自然语言处理实战:使用Hugging-Face-Transformers库构建NLP应用 | 466页PDF及代码

自2017年推出以来,Transformer已迅速成为在各种自然语言处理任务上实现最先进结果的主导架构。

这里给大家推荐一本《Transformer自然语言处理实战:使用Hugging-Face-Transformers库构建NLP应用》学习书籍。

这本实用的书向你展示了如何使用基于python的深度学习库hugs Face transformer来训练和扩展这些大型模型。

有需要这本《Transformer自然语言处理实战》书籍PDF文档,可以微信扫描下方优快云官方认证二维码,免费领取【保证100%免费】

Transformer自然语言处理实战

在这里插入图片描述

在本指南中,作者Lewis Tunstall、Leandro von Werra和Thomas Wolf(拥抱Transformers 的创始人之一)使用亲身实践的方法来教你Transformers如何工作,以及如何将它们集成到应用程序中。你会很快学到他们能帮你解决的各种任务。

为核心NLP任务构建、调试和优化Transformers模型,如文本分类、命名实体识别和回答问题:

  • 学习如何使用Transformers进行跨语言迁移学习
  • 在真实世界中标签数据稀缺的场景中应用Transformers
  • 利用蒸馏、剪枝和量化等技术,使Transformers模型有效地用于部署
  • 从零开始训练Transformers ,学习如何扩展到多个GPU和分布式环境

本书的目标是让您能够构建自己的语言应用程序。为了达到这个目的,它关注于实际的用例,并且只在必要的时候深入研究理论。这本书的风格是动手操作,我们强烈建议您亲自运行代码示例来进行试验。本书涵盖了NLP中transformers的所有主要应用,每一章(除了少数例外)专门针对一个任务,结合一个实际的用例和数据集。每一章还介绍了一些额外的概念。

第1章 欢迎来到Transformer的世界

  • 1.1 编码器-解码器框架
  • 1.2 注意力机制
  • 1.3 NLP的迁移学习
  • 1.4 Hugging FaceTransformers库:提供规范化接口
  • 1.5 Transformer应用概览
  • 1.6 Hugging Face生态系统
  • 1.7 Transformer的主要挑战
  • 1.8 本章小结

在这里插入图片描述

第2章 文本分类

  • 2.1 数据集
  • 2.2 将文本转换成词元
  • 2.3 训练文本分类器
  • 2.4 本章小结

在这里插入图片描述

第3章 Transformer架构剖析

  • 3.1 Transformer架构
  • 3.2 编码器
  • 3.3 解码器
  • 3.4 认识Transformer
  • 3.5本章小结

在这里插入图片描述

第4章 多语言命名实体识别

  • 4.1 数据集
  • 4.2 多语言Transformer
  • 4.3 多语言词元化技术
  • 4.4 命名实体识别中的Transformers
  • 4.5 自定义Hugging Face Transformers库模型类
  • 4.6 NER的词元化
  • 4.7 性能度量
  • 4.8 微调XLM-RoBERTa
  • 4.9 错误分析
  • 4.10 跨语言迁移
  • 4.11 用模型小部件进行交互
  • 4.12 本章小结

在这里插入图片描述

第5章 文本生成

  • 5.1 生成连贯文本的挑战
  • 5.2 贪婪搜索解码
  • 5.3 束搜索解码
  • 5.4 采样方法
  • 5.5 top-k和核采样
  • 5.6 哪种解码方法最好
  • 5.7 本章小结

在这里插入图片描述

第6章 文本摘要

  • 6.1 CNN/DailyMail数据集
  • 6.2 文本摘要pipeline
  • 6.3 比较不同的摘要
  • 6.4 度量生成文本的质量
  • 6.5 在CNN/DailyMail数据集上评估PEGASUS
  • 6.6 训练摘要模型
  • 6.7 本章小结

在这里插入图片描述

第7章 构建问答系统

  • 7.1 构建基于评论的问答系统
  • 7.2 评估并改进问答pipeline
  • 7.3 生成式问答
  • 7.4 本章小结

在这里插入图片描述

第8章 Transformer模型调优

  • 8.1 以意图识别为例
  • 8.2 创建性能基准
  • 8.3 通过知识蒸馏减小模型大小
  • 8.4 利用量化技术使模型运算更快
  • 8.5 基准测试量化模型2
  • 8.6 使用ONNX和ONNX Runtime进行推理优化
  • 8.7 使用权重剪枝使模型更稀疏
  • 8.8 本章小结
    在这里插入图片描述

第9章 零样本学习和少样本学习

  • 9.1 构建GitHub issue标记任务
  • 9.2 基线模型—朴素贝叶斯
  • 9.3 零样本学习
  • 9.4 少样本学习
  • 9.5 利用无标注数据
  • 9.6 本章小结

在这里插入图片描述

第10章 从零训练Transformer模型

  • 10.1 如何寻找大型数据集
  • 10.2 构建词元分析器
  • 10.3 从零训练一个模型
  • 10.4 结果与分析
  • 10.5 本章小结

在这里插入图片描述

第11章 未来发展趋势

  • 11.1 Transformer的扩展
  • 11.2 其他应用领域3
  • 11.3 多模态的Transformer
  • 11.4 继续前行的建议

在这里插入图片描述

有需要这本《Transformer自然语言处理实战》书籍PDF文档,可以微信扫描下方优快云官方认证二维码,免费领取【保证100%免费】

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值