
深度学习笔记
文章平均质量分 94
宫本文藏
复旦大学研究生 华东师范大学本科生
展开
-
Vision Transformer(VIT)
Vision Transformer(ViT)是一种新兴的图像分类模型,它使用了类似于自然语言处理中的Transformer的结构来处理图像。这种方法通过将输入图像分解成一组图像块,并将这些块变换为一组向量来处理图像。然后,这些向量被输入到Transformer编码器中,以便对它们进行进一步的处理。ViT在许多计算机视觉任务中取得了与传统卷积神经网络相当的性能,但其在处理大尺寸图像和长序列数据方面具有优势。原创 2023-03-26 01:23:13 · 4441 阅读 · 0 评论 -
Transformer导论之GPT
GPT全称为Generative Pre-trained Transformer,它使用了Transformer中的Decoder架构,并通过大规模的无监督预训练来提高模型的表现力。在预训练阶段,GPT通过处理大量的无标注文本数据,学习到了语言的统计规律和上下文信息。在实际应用时,GPT可以通过微调(fine-tuning)的方式,根据具体任务的需求,对预训练的模型进行微小的调整,从而适应不同的文本生成、问答等任务。GPT在自然语言生成和处理任务上表现出色,在多个公开数据集上都取得了很好的成绩。原创 2023-03-25 15:59:05 · 2254 阅读 · 0 评论 -
Transformer导论之—Bert
BERT,全称为“Bidirectional Encoder Representations from Transformers”,是一种预训练语言表示的方法,意味着我们在一个大型文本语料库(如维基百科)上训练一个通用的“语言理解”模型,然后将该模型用于我们关心的下游NLP任务(如问答)。BERT的表现优于之前的传统NLP方法,因为它是第一个用于预训练NLP的无监督的、深度双向系统。Bert是利用无标签建模的,当谈到NLP语料库中的无标签和有标签数据时,一个常见的例子是将文本分类任务。原创 2023-03-25 01:58:43 · 402 阅读 · 0 评论 -
Transformer导论1 Transformer
Self-attention机制是一种将输入序列的不同部分关联起来的方法,可以在不引入循环或卷积结构的情况下学习到序列中的全局依赖关系。在self-attention中,每个输入元素都会计算一个注意力得分,该得分衡量它与其他元素之间的相对重要性,并用这些得分来计算一个加权和。原创 2023-03-24 23:09:54 · 314 阅读 · 0 评论