
Hugging Face Transformers
文章平均质量分 89
Hugging Face 的 Transformers 库是一个开源工具包,旨在简化 Transformer 模型的开发和使用。它支持多种流行的深度学习框架。
做个天秤座的程序猿
喜欢研究langchain和langchain-chatchat
展开
-
使用 Hugging Face Transformers 库实现“代码生成和理解”功能
近年来,深度学习在自然语言处理(NLP)领域取得了显著进展,特别是使用 Transformers 架构的模型,如 BERT、GPT 等。Hugging Face 的 Transformers 库为研究人员和开发人员提供了一个强大且易于使用的工具包,使得实现复杂的 NLP 任务变得更加简单。在这篇文章中,我们将探讨如何使用 Hugging Face Transformers 库实现“代码生成和理解”功能。原创 2024-07-23 10:37:26 · 1167 阅读 · 0 评论 -
一起学Hugging Face Transformers(19)- pipeline的类型
前面的文章里有如下一段代码# 创建NER管道这个ner管道是什么呢在命名实体识别任务中,创建了一个用于识别文本中命名实体的管道。这个管道会自动处理文本的分词、模型推理以及结果的后处理,使得整个过程变得非常简洁和高效。以下是对pipeline和ner。原创 2024-07-17 01:00:00 · 1780 阅读 · 0 评论 -
一起学Hugging Face Transformers(18) - 使用Transformers 库实现命名实体识别(NER)
命名实体识别(NER)是自然语言处理(NLP)中的一种任务,旨在识别文本中具有特定意义的实体,例如人名、地名、组织名等。NER 在信息抽取、文本分析和许多其他 NLP 应用中具有重要作用。本文将介绍如何使用 Hugging Face 的库来实现 NER。通过本文,我们了解了如何使用 Hugging Face 的库和预训练的 BERT 模型来实现命名实体识别。这个过程包括加载模型和分词器、创建 NER 管道、对文本进行识别以及解释识别结果。Hugging Face 的。原创 2024-07-16 09:58:31 · 752 阅读 · 0 评论 -
一起学Hugging Face Transformers(17)- 使用 Transformers 库实现摘要生成
随着信息的爆炸式增长,自动摘要生成(Summarization)已经成为自然语言处理(NLP)领域的重要任务之一。它可以帮助我们快速获取文档的核心内容,从而提高信息处理的效率。本文将介绍如何使用 Hugging Face 的库来实现摘要生成。首先,我们需要安装必要的库。确保你已经安装了和torch库。接下来,我们使用模型生成摘要。这里我们使用generate方法来生成摘要。# 生成摘要# 解码生成的摘要通过本文,我们了解了如何使用 Hugging Face 的。原创 2024-07-15 14:54:52 · 1323 阅读 · 0 评论 -
一起学Hugging Face Transformers(16)- transform库的pipeline
库中的pipeline是一个非常便捷的高级 API,它封装了许多常见的自然语言处理任务,使得用户可以轻松调用预训练模型进行各种任务,而不需要深入了解模型的底层实现。下面是关于pipeline的详细介绍。pipeline。原创 2024-07-14 00:45:00 · 1652 阅读 · 0 评论 -
一起学Hugging Face Transformers(15)- 使用Transformers 进行情感分析
情感分析(Sentiment Analysis)是自然语言处理(NLP)中的一个重要任务,旨在确定文本的情感倾向,如积极、消极或中性。Hugging Face 的 Transformers 库提供了强大的工具,可以轻松实现情感分析。在这篇文章中,我们将介绍如何使用 Transformers 库进行情感分析。如果预训练模型不能完全满足你的需求,你可以在自己的数据集上微调模型。# 加载预训练模型和分词器# 准备数据集"]# 定义训练参数# 定义 Trainer# 训练模型。原创 2024-07-13 00:45:00 · 894 阅读 · 0 评论 -
一起学Hugging Face Transformers(14)- “自定义训练循环”问题解答
前一篇文章 自定义训练循环 收到不少提问,在这里统一解答一下。:这是一个用于获取学习率调度器的函数。学习率调度器(Learning Rate Scheduler)在训练过程中调整学习率,以便更好地控制模型的优化过程。:指定调度器的类型为线性调度器(linear scheduler),表示学习率将在训练期间线性地从初始值下降到最终值。:指定优化器,调度器将与这个优化器一起工作。:指定学习率预热步骤(warmup steps)的数量。在预热阶段,学习率从0逐渐增加到初始值。这里设置为0,表示没有预热阶段。原创 2024-07-09 00:45:00 · 1356 阅读 · 0 评论 -
一起学Hugging Face Transformers(13)- 模型微调之自定义训练循环
Hugging Face Transformers 库为 NLP 模型的预训练和微调提供了丰富的工具和简便的方法。虽然 Trainer API 简化了许多常见任务,但有时我们需要更多的控制权和灵活性,这时可以实现自定义训练循环。本文将介绍什么是训练循环以及如何使用 Hugging Face Transformers 库实现自定义训练循环。在模型微调过程中,训练循环是指模型训练的核心过程,通过多次迭代数据集来调整模型的参数,使其在特定任务上表现更好。原创 2024-07-08 00:30:00 · 1216 阅读 · 0 评论 -
一起学Hugging Face Transformers(12)- 什么是预训练(Pre-training)
预训练(Pre-training)是大模型开发中的一个重要概念,它指的是在大量通用数据上训练一个模型,使其学习广泛的知识和语言模式。这个过程在实际应用中非常关键,因为它为模型提供了一个强大的基础,使其能够更好地适应后续的特定任务。预训练是指在特定任务之前,先在一个大规模的、通用的文本数据集上训练一个模型。这些通用数据集可以包括维基百科文章、新闻报道、书籍内容等。通过在这些数据上训练,模型能够学习到丰富的语言结构和语义知识。原创 2024-07-07 00:30:00 · 1183 阅读 · 0 评论 -
一起学Hugging Face Transformers(11)- 用于微调的基础模型选择考虑的因素和技巧
微调的基础模型选择是大模型应用中一个关键的决策。选择适合的基础模型可以显著提升微调后的性能和效果。以下是一些关于为什么推荐使用某些基础模型以及选择模型的技巧。选择适合的基础模型进行微调是提高模型性能的关键。推荐使用的基础模型通常是因为其预训练质量高、架构设计优良、社区支持丰富。选择模型时应根据任务类型、计算资源、领域相关性和最新研究进展等因素进行综合考虑。通过这些技巧,你可以更有效地选择和微调基础模型,提升模型在特定任务中的表现。原创 2024-07-06 00:30:00 · 1137 阅读 · 0 评论 -
一起学Hugging Face Transformers(10)- 使用Transformers 库的 Trainer API 进行模型微调
在自然语言处理(NLP)领域,预训练模型如 BERT、GPT 等已经展示了其强大的能力。然而,实际应用中,预训练模型往往需要进一步微调(Fine-tuning)以适应具体任务。Hugging Face Transformers 库提供了强大的 Trainer API,使得模型微调变得简单高效。本文将详细介绍如何使用 Trainer API 对模型进行微调。通过 Hugging Face Transformers 库的 Trainer API,我们可以方便快捷地对预训练模型进行微调。原创 2024-07-05 00:45:00 · 1219 阅读 · 1 评论 -
一起学Hugging Face Transformers(9) - 微调(Fine-tuning)简介
在大模型学习的过程中,我们经常听到“微调”这个词。也有很多的微调框架。很多人几乎达到了什么模型都要拿来微调下才能用的程度。那到底什么是微调,我想用通俗易懂的方式讲解一下大模型里常说的“微调”(Fine-tuning)。想象一下,你买了一本非常厚的百科全书,里面包含了世界上各种各样的知识。这本百科全书就像是一个预训练的大模型,里面已经包含了大量的信息和知识。然而,当你需要在考试中回答特定学科的问题时,比如历史或生物学,单靠这本通用的百科全书可能还不够。原创 2024-07-04 00:45:00 · 1440 阅读 · 0 评论 -
SQuAD(Stanford Question Answering Dataset)数据集简介
SQuAD(Stanford Question Answering Dataset)数据集是一个非常流行且广泛使用的问答数据集,主要用于训练和评估问答系统。它的设计目的是从给定的段落中回答问题。SQuAD 数据集的优点在于它的规模大、数据质量高,并且包含了多样化的上下文和问题。然而,SQuAD 数据集也有一些局限性,使其在覆盖生活中常见问题方面存在一定的不足。标注质量不一致:自定义文档的数据标注质量可能不一致,尤其是在标注过程缺乏标准和规范的情况下。覆盖范围有限。原创 2024-07-02 00:30:00 · 3167 阅读 · 0 评论 -
一起学Hugging Face Transformers(8)- 使用Transformers 库制作一个简易问答系统
问答系统是一种能够自动回答用户问题的人工智能应用,在许多领域具有重要的应用价值,如客户服务、教育和医疗等。Hugging Face Transformers 库是一个强大的工具,它提供了许多预训练的自然语言处理模型,简化了构建问答系统的过程。本文将介绍如何使用 Hugging Face Transformers 库创建一个问答系统。本文介绍了如何使用 Hugging Face Transformers 库构建一个简单的问答系统。从环境准备、数据处理、模型选择到系统部署,涵盖了问答系统开发的各个方面。原创 2024-07-01 10:29:17 · 1215 阅读 · 0 评论 -
Hugging Face Transformers 库学习提纲
Hugging Face Transformers 库是一个强大且易于使用的工具包,用于实现和应用各种Transformer模型。我们先列一个详细的学习提纲,帮助我们系统地学习和掌握Hugging Face Transformers库。以下是提纲,我们先整体过一遍,然后再有针对的去学习。学习 Hugging Face Transformers 库需要从基础概念和环境配置入手,逐步掌握库的基本使用方法和高级应用,通过实际案例和项目实战提升实践能力,并且结合社区资源和前沿研究不断深入学习和探索。原创 2024-06-25 01:30:00 · 903 阅读 · 0 评论 -
一起学Hugging Face Transformers(7) - 使用Transformers 库进行机器翻译(Machine Translation)
机器翻译(Machine Translation)是自然语言处理(NLP)中的一个重要任务,它涉及将文本从一种语言自动翻译为另一种语言。Hugging Face 的 Transformers 库提供了强大而易用的工具来实现机器翻译任务。本文将详细介绍如何使用 Transformers 库进行机器翻译,包括环境准备、加载预训练模型、进行翻译和调整翻译结果。Hugging Face 的 Transformers 库为机器翻译任务提供了强大而灵活的工具。原创 2024-06-28 14:46:20 · 2268 阅读 · 0 评论 -
一起学Hugging Face Transformers(6)- 使用Transformers 库进行文本生成(Text Generation)
文本生成(Text Generation)是自然语言处理(NLP)中的一个重要任务,它涉及从给定的输入生成连贯且有意义的文本。Hugging Face 的 Transformers 库提供了强大而易用的工具来实现文本生成任务。本文将详细介绍如何使用 Transformers 库进行文本生成,包括环境准备、加载预训练模型、进行文本生成和调优生成结果。Hugging Face 的 Transformers 库为文本生成任务提供了强大而灵活的工具。原创 2024-06-30 00:30:00 · 916 阅读 · 0 评论 -
一起学Hugging Face Transformers(5)- 使用Transformers 库进行文本分类
文本分类(Text Classification)是自然语言处理(NLP)中的一个基本任务,它涉及将文本分配到预定义的类别中。Hugging Face 的 Transformers 库为文本分类提供了强大而简便的工具。本文将详细介绍如何使用 Transformers 库进行文本分类,包括数据预处理、模型训练和评估。我们使用Trainer类来简化训练过程。首先,我们需要定义训练参数。# 定义 Trainer# 开始训练。原创 2024-06-29 01:00:00 · 1099 阅读 · 3 评论 -
一起学Hugging Face Transformers(4)- 通过Transformers 库做数据预处理
在自然语言处理(NLP)任务中,数据预处理是确保模型能够高效、准确工作的关键步骤之一。Hugging Face 的 Transformers 库提供了一整套便捷的工具,帮助开发者进行文本数据的预处理。本文将介绍如何使用该库进行数据预处理,包括文本数据的 Tokenization、Padding 和 Truncation,以及创建数据集和 DataLoader。我们可以使用 Hugging Face 的 Transformers 库高效地进行数据预处理,为模型训练打下坚实的基础。原创 2024-06-28 10:22:51 · 1482 阅读 · 0 评论 -
一起学Hugging Face Transformers(3) - Hugging Face 加载模型和Tokenizer
Hugging Face提供了一个强大的Transformers库,方便用户加载和使用预训练的自然语言处理模型及其相应的Tokenizer。本文将介绍如何加载预训练模型和Tokenizer,使用AutoModel和AutoTokenizer,以及了解不同模型的输入和输出格式,并举两个具体的例子进行说明。本文介绍了如何使用Hugging Face的Transformers库加载预训练模型和Tokenizer,使用AutoModel和AutoTokenizer类,以及不同模型的输入和输出格式。原创 2024-06-27 18:09:52 · 2059 阅读 · 0 评论 -
一起学Hugging Face Transformers(2)- 如何安装Python环境并使用Hugging Face Transformers库
安装Python环境是进行机器学习和自然语言处理项目的第一步。本文将介绍如何使用两种不同的方法(conda和venv)安装Python环境,然后详细讲解如何安装Hugging Face Transformers库和PyTorch或TensorFlow。安装完上述工具后,你就可以开始使用Hugging Face Transformers库进行自然语言处理任务了。希望这篇文章对你有所帮助!原创 2024-06-27 10:41:46 · 1874 阅读 · 0 评论 -
一起学Hugging Face Transformers(1) - Transformer 基础概念
Hugging Face 成立于2016年,总部位于纽约市,是一家专注于自然语言处理(NLP)和人工智能的公司。起初,Hugging Face 以开发一款名为 Hugging Face 的聊天机器人而闻名,但公司很快转向了开发和发布 NLP 工具和资源。其核心产品——Transformers 库,自发布以来在 NLP 社区中迅速流行,成为开发和使用 Transformer 模型的首选工具之一。随着社区的不断壮大和技术的快速迭代,Hugging Face 在全球 NLP 研究和应用领域中占据了重要地位。原创 2024-06-26 11:32:04 · 1019 阅读 · 0 评论