python
文章平均质量分 93
White白小纯
计算机视觉硕士,软件工程博士生。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
深度学习图像处理04:图像分类模型训练实战——动物分类
本文深入探讨了深度学习在图像分类任务中的应用,以动物分类为例进行了实战演练。我们从数据集的准备和预处理开始,探讨了如何通过调整图像尺寸和应用数据增强技术来提高模型的泛化能力。接着,我们讨论了不同的深度学习模型架构,训练代码中集成了如ResNet和MobileNet等模型,并介绍了如何使用PyTorch框架来训练这些模型。我们通过命令行参数灵活地控制训练过程,允许用户自定义模型训练的各个方面,包括模型的选择、是否使用预训练权重、学习率和批大小等。原创 2024-04-10 21:28:22 · 3771 阅读 · 2 评论 -
深度学习图像处理03:卷积神经网络——卷积和池化
卷积神经网络(Convolutional Neural Networks, CNNs)是深度学习领域的一项革命性技术,在图像处理和计算机视觉任务中表现出了卓越的性能。自从LeCun等人在20世纪90年代初期提出,CNN已经成为了各种视觉识别任务的核心技术,包括图像分类、对象检测和图像分割等。CNN之所以有效,是因为它们能够自动且有效地从大量未标记的数据中学习到复杂的特征表示,这一点在传统的机器学习方法中是很难实现的。原创 2024-03-26 00:18:05 · 1879 阅读 · 0 评论 -
深度学习图像处理02:Tensor数据类型
Tensor,简而言之,是一个多维数组,是标量、向量和矩阵的高维推广。在深度学习中,Tensors是算法的基本构建块,用于表示和处理数据,如图像、声音或文本。0维Tensor:标量(Scalar),例如一个数字。1维Tensor:向量(Vector),例如一个数字列表。2维Tensor:矩阵(Matrix),例如二维数组。n维Tensor:更高维度的数组。了解Tensor数据类型,掌握Tensor的基础操作是深度学习和图像处理中的基本技能。原创 2024-03-23 00:54:54 · 1788 阅读 · 0 评论 -
Transformer03:位置编码(Positional Encoding)
位置编码是Transformer模型理解序列数据的一个关键组成部分。通过向模型提供关于序列中每个元素位置的信息,位置编码使得基于注意力的架构能够有效地处理语言等顺序数据。尽管其设计简单,位置编码却极大地增强了Transformer模型的能力,使其在多个自然语言处理任务中取得了前所未有的成功。原创 2024-03-19 23:49:55 · 1801 阅读 · 1 评论 -
Transformer 02:多头注意力机制的工作原理
本文介绍多头注意力机制的工作原理,最后附上代码示例,通过代码应用自注意力机制模块的步骤。多头注意力机制是Transformer架构中的一个关键创新,它允许模型在不同的表示子空间中并行地学习输入数据的不同方面。这种机制增加了模型的灵活性和能力,使其能够捕捉到更复杂的特征关系。多头注意力机制的核心思想是将注意力操作分拆成多个“头”,每个头独立地进行注意力计算,然后将这些计算的结果合并起来。原创 2024-03-19 00:21:14 · 5757 阅读 · 1 评论 -
Transformer 01:自注意力机制Q,K,V详解
在深度学习领域,一个神秘且强大的概念——自注意力机制(Self-Attention Mechanism),近年来成为了许多突破性成果的幕后英雄。从自然语言处理(NLP)到计算机视觉,自注意力机制正逐渐成为构建高效、强大模型的关键。但它究竟是什么?又是如何工作的?接下来将用通俗易懂的理解解释Transformer的工作原理。原创 2024-03-18 10:18:00 · 11950 阅读 · 0 评论 -
【Python】游戏:飞机大战
本文主要内容:复现:Eric Matthes所著的《python编程从入门到实践》一书中,第12章到第十四章的《外星人入侵》项目的代码,并成功运行。将项目的主要文件和代码做一个分享分享此项目完整代码的链接第一部分:项目的效果图和目录树项目的初始运行的效果:项目的文件目录:项目的依赖包:第二部分:主要代码alien_invasion.py(主程序代码)import pygamefrom settings import Settingsfrom ship import Shi原创 2021-09-28 18:01:08 · 579 阅读 · 0 评论
分享