- 博客(20)
- 收藏
- 关注
原创 第P10周:Pytorch实现车牌识别
transforms.ToTensor(), # 将PIL Image或numpy.ndarray转换为tensor,并归一化到[0,1]之间。"豫","鄂","湘","粤","桂","琼","川","贵","云","藏","陕","甘","青","宁","新","军","使"]char_enum = ["京","沪","津","渝","冀","晋","蒙","辽","吉","黑","苏","浙","皖","闽","赣","鲁",\。# 最终reshape。1.优化器与损失函数。
2025-04-04 21:11:46
1302
5
原创 第P9周:YOLOv5-Backbone模块实现
Backbone 模块主要用于提取图像的多层级特征,采用 CSP 结构优化计算效率,并结合多尺度特征提取机制,提高目标检测的准确性和速度。
2025-03-28 21:17:48
929
原创 第P8周:YOLOv5-C3模块实现
1. 模块组成C3 模块由卷积层(Convolutional layers)、激活函数(Activation functions) 和 残差连接(Residual connections) 组成。在 YOLOv5 中,C3 通常用于 Backbone 网络中的每个层级,特别是处理图像中复杂细节的部分。2.c3的特性深度可分离卷积:通过减少卷积操作的参数量来提高计算效率,特别是针对大规模数据集时,能显著降低计算负担。
2025-03-21 21:07:21
758
原创 第P7周:马铃薯病害识别(VGG-16复现)
loss = loss_fn(pred, y) # 计算网络输出和真实值之间的差距,targets为真实值,计算二者差值即为损失。num_batches = len(dataloader) # 批次数目, (size/batch_size,向上取整)num_batches = len(dataloader) # 批次数目, (size/batch_size,向上取整)size = len(dataloader.dataset) # 测试集的大小。
2025-03-14 21:05:19
782
原创 第TR3周:Pytorch复现Transformer
Transformer通过自注意力机制,改变了序列建模的方式,成为AI领域的基础架构编码器:理解输入,提取上下文特征。解码器:基于编码特征,按顺序生成输出。
2025-03-07 21:41:14
1090
原创 第P6周:VGG-16-Pytorch实现人脸识别
使用了迁移学习的方法,通过加载 VGG16 预训练模型,并在其基础上修改最后一层,使其适应新的分类任务,数据被分为训练集和测试集,并经过归一化等预处理后喂入模型进行训练,优化器采用 Adam,并结合学习率调度器逐步调整学习率,整个训练过程中,模型不断优化,最终选择表现最好的模型进行保存,并通过可视化方式展示训练过程中的准确率和损失变化,同时提供了一个单张图片预测的功能,能够方便地对新图片进行分类预测。param.requires_grad = False #冻结模型的参数,只训练最后一层的参数。
2025-02-28 20:24:05
921
原创 第J8周: Inception V1算法实战与解析
InceptionV1(也称为GoogLeNet)是由Google提出的卷积神经网络架构。它的核心创新是Inception模块,通过将多个卷积操作和池化操作并行进行,减小了计算复杂度并提升了模型的表达能力。
2025-02-14 21:39:29
717
原创 第N2周:构建词典
print('去除停用词后的文本',remove_stopwords(jieba.lcut(text)))print('数字化后的文本',[vocab[word] for word in words])print('jieba分词后的文本',jieba.lcut(text))print('词典内部映射:',vocab.get_stoi())print('词典大小:',len(vocab))'这是我的365天深度学习训练营教案',text='这是我的365天深度学习训练营教案''的','这','是'
2025-01-17 09:05:22
802
原创 第N1周:one-hot编码案例
是一种常用的离散数据表示方法,特别是在机器学习和深度学习中,用于将分类数据转化为可以输入模型的数值形式。它的核心思想是将每个类别映射为一个固定长度的二进制向量,其中只有一个位置为1,其余位置均为0。
2025-01-10 19:16:09
636
原创 G2周:人脸图像生成(DCGAN)
自定义权重初始化函数,作用于netG和netD#获取当前层的类名#如果类名中包含'Conv',即当前层是卷积层= -1:#使用正态分布初始化权重数据,均值为0,标准差为0.02#如果类名中包含'BatchNorm',即当前层是批归一化层=-1:#使用正态分布初始化权重数据,均值为1,标准差为0.02#使用常数初始化偏置项数据,值为0#输入为z,经过一个转置卷积层nn.BatchNorm2d(ngf*8), #批归一化层,用于加速收敛和稳定训练过程。
2025-01-03 20:58:19
854
原创 G2:人脸图像生成(DCGAN)
自定义权重初始化函数,作用于netG和netD#获取当前层的类名#如果类名中包含'Conv',即当前层是卷积层= -1:#使用正态分布初始化权重数据,均值为0,标准差为0.02#如果类名中包含'BatchNorm',即当前层是批归一化层=-1:#使用正态分布初始化权重数据,均值为1,标准差为0.02#使用常数初始化偏置项数据,值为0#输入为z,经过一个转置卷积层nn.BatchNorm2d(ngf*8), #批归一化层,用于加速收敛和稳定训练过程。
2024-12-27 15:25:01
1040
原创 G1:生成对抗网络入门
生成对抗网络(GAN) 是一种深度学习模型,由两部分组成生成器(Generator):生成伪造数据判别器(Discriminator):判断数据是否真实。训练过程:生成器产生假的数据(如图像),然后传给判别器判别器将数据分为“真实”或“假的”生成器的目标是让判别器认为它生成的假数据是真实的,而判别器的目标是正确判断数据的真假核心思想:生成器和判别器互相对抗,通过不断的训练,最终生成器能够生成足够“真实”的数据,骗过判别器n_epochs:训练轮数batch_size:每批次训练数据的数量lr。
2024-12-20 17:07:19
898
原创 R4:LSTM-火灾温度预测
🏡LSTM是RNN的一种特殊形式,它通过以下结构来解决传统RNN的缺陷:1.记忆单元:负责长期记忆的传递,能够有效地存储信息,并在序列中的不同时间步长传递。2.输入门:决定当前输入的信息有多少会被添加到记忆单元中。3.遗忘门:决定记忆单元中的哪些信息需要被丢弃或忘记。4.输出门:控制记忆单元的内容会在当前时间步长传递给下一个时间步长或输出。
2024-12-13 13:14:19
808
原创 R3:RNN-心脏病预测
RNN(Recurrent Neural Network,循环神经网络是一种用于处理序列数据(如时间序列、文本、语音等)的神经网络模型。它的特点是拥有“记忆”能力,即能够保留先前时间步的信息,并将其用于当前时间步的计算,但它在长序列的学习中可能面临“梯度消失”问题,导致长时间依赖信息的学习困难。为了解决这个问题,出现了LSTM(长短期记忆)和GRU(门控循环单元)RNN的每个神经元不仅接收当前输入,还接收来自前一个时间步的“隐藏状态”
2024-12-06 11:35:14
830
原创 J1:Resnet50-算法实战与分析
将网络的输入直接加到输出上,形成“残差连接”。这种连接形式通过显式地引入一个捷径(shortcut),让信息在网络中流动得更加顺畅,避免了传统深度网络中随着层数增多导致的信息流衰减。plt.rcParams['font.sans-serif'] = ['SimHei'] # 用来正常显示中文标签。plt.rcParams['axes.unicode_minus'] = False # 用来正常显示负号。在传统的卷积神经网络(CNN)中,每一层都会接收前一层的输出作为输入并进行计算。
2024-11-29 20:15:04
908
原创 P5:Pytorch实现运动鞋识别
1.Adam 优化器比 SGD 更常用,在复杂的任务中。它通过动态调整每个参数的学习率,加速了训练过程并提高了性能。2.动态学习率有助于避免学习率过大导致的发散,并加速后期收敛。
2024-11-15 15:27:37
1058
原创 T8猫狗识别
允许更灵活地控制每个 epoch 的学习率和进度显示,便于实时监控训练过程tqdm是一个 Python 库,用于在终端中显示进度条,便于实时监控代码执行的进度和耗时。
2024-11-08 18:27:25
882
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人