- 博客(41)
- 收藏
- 关注
原创 CFResNet鸟类识别:原网络基础上改进算法
本文为为🔗365天深度学习训练营内部文章原作者:K同学啊先放一张ResNet50模型的鸟类识别结果图。
2025-04-03 17:42:02
616
原创 DCGAN:人脸图像生成
生成器# 1.初始化权重# 自定义权重初始化函数,作用于netG和netD# 获取当前层的类名# 如果类名中包含’Conv‘,即当前层是卷积层= -1:# 使用正态分布初始化权重数据,均值为0,标准差为0.02# 如果类名中包含’BatchNorm‘,即当前层为批归一化层= -1:# 使用正态分布初始化权重数据,均值为1,标准差为0.02# 使用常数初始化偏置项数据,值为0# 2.定义生成器# 输入为z,经过一个转置卷积层。
2025-03-07 16:49:38
857
原创 生成对抗网络入门:Mnist手写数字生成
import os# 创建文件夹os.makedirs('./images/',exist_ok=True) # 记录训练过程的图片效果os.makedirs('./save/',exist_ok=True) # 训练完成时模型保存的位置os.makedirs('./datasets/mnist',exist_ok=True) # 下载数据集存放的位置# 超参数配置n_epochs = 50 # 这个参数决定了模型训练的总轮数。轮数越多,模型有更多机会学习数据中的模式,但也可能导致过拟合。
2025-02-13 22:22:41
1010
原创 RNN心脏病预测-Pytorch版本
2.定义训练函数# 训练循环size = len(dataloader.dataset) # 训练集的大小,一共60000张图片num_batches = len(dataloader) # 批次数目,1875(60000/32)train_loss, train_acc = 0, 0 # 初始化训练损失和正确率for X, y in dataloader: # 获取图片及其标签# 计算预测误差pred = model(X) # 网络输出。
2025-01-09 13:12:27
1001
1
原创 InceptionV1实现猴痘病识别案例
最后Inception Module基本由1*1卷积,3*3卷积,5*5卷积,3*3最大池化四个基本单元组成。为了改善计算量大的问题,使用了1*1的卷积核实现降维操作,以此来减小网络的参数量与计算量。Inception Module是Inception V1的核心组成单元,提出了。1*1卷积核的作用:降低输入特征图的通道数,减小网络的参数量与计算量。
2024-12-29 20:59:23
251
原创 ResNext-50模型进行图像识别
的概念,ResNeXt-50 能够在网络深度不增加的情况下显著提升模型的能力,同时保持训练的高效性和泛化能力。它适用于各种计算机视觉任务,尤其是在需要高效和准确的图像分类任务中表现出色。相比于传统的深层网络(如 ResNet 和 VGG)有明显的优势,特别是在计算效率和模型性能之间找到了较好的平衡。
2024-12-20 16:51:08
188
原创 深度学习案例:Bird识别之普通CNN与ResNet50对比
ResNet50的网络深度达50层,相较于普通CNN,能够学习到更为复杂和抽象的图像特征。通过深层的网络结构,ResNet能够提取多层次的特征,从低级的边缘、纹理到高级的形状和物体类别特征。这使得ResNet在图像分类任务中能够表现出更高的准确性,尤其是在处理复杂图像或大规模数据集时(例如ImageNet数据集)。传统的普通CNN在训练时往往需要更长的时间来收敛,尤其是在网络较深时容易陷入局部最优解。而ResNet通过残差连接的引入,减少了训练过程中的优化难度,并能更快速地收敛。
2024-11-22 18:33:37
640
原创 RNN深度学习案例:LSTM火灾温度预测
(5939, 24) (5939, 1)(5000, 8, 3) (939, 8, 3)Model: "sequential_1"_________________________________________________________________ Layer (type) Output Shape Param # =====================================
2024-11-15 18:39:31
1023
原创 RNN天气预测
本文为为内部文章原作者:K同学啊与上篇一样,依然是二维数据结构。利用早停法,绘制准确率和loss图Epoch 1/10Epoch 2/10Epoch 3/10Epoch 4/10Epoch 5/10Epoch 6/10Epoch 7/10Epoch 8/10Epoch 9/10。
2024-11-08 17:59:51
1048
原创 LSTM预测:糖尿病的发生情况
卡号 性别 年龄 高密度脂蛋白胆固醇 低密度脂蛋白胆固醇 极低密度脂蛋白胆固醇 甘油三酯 总胆固醇 脉搏 舒张压 0 18054421 0 38 1.25 2.99 1.07 0.64 5.31 83 83 \1 18054422 0 31 1.15 1.99 0.84 0.50 3.98 85 63 2 18054423 0 27 1.29
2024-10-18 21:33:57
1212
1
原创 RNN心脏病预测
1. 模型输入要求RNN 输入格式:许多深度学习模型,尤其是 RNN 和 LSTM,需要输入数据的形状为三维:(样本数, 时间步数, 特征数)。这使得模型能够处理序列数据并学习时间依赖关系。2. 数据原始形状在标准化后,X_train 和 X_test 的形状是 (样本数, 特征数)。例如,如果 X_train 有 100 个样本和 10 个特征,则其形状为 (100, 10)。3. 重塑的目的。
2024-10-11 21:18:16
1003
原创 数据增强方法
这是大家可以自由发挥的一个地方# 随机改变图像对比度如何将自定义增强函数应用到我们数据上呢在数据预处理的步骤中嵌套数据增强的函数即可# 归一化图像# 应用增强函数# 随机改变图像对比度。
2024-09-13 20:12:43
835
原创 Tenserflow实现深度学习案例3:天气识别
1.tensorflow比torch在语法上更简单,构建模型的语法更为固定,训练的语法更为简洁2.数据处理上联系密切,仅有语法不同。
2024-07-26 21:56:34
843
原创 Tensorflow深度学习案例2:cifar10彩色图片识别
与上文手写数字识别架构、逻辑、思路、语句近似相同导入内置数据集,归一化数据拆分训练集,构建模型训练并评估。
2024-07-19 21:34:29
418
原创 Tenserflow深度学习案例1:mnist手写数字识别
MNIST手写数字数据集来源于是美国国家标准与技术研究所,是著名的公开数据集之一。(下载后需解压)。我们一般会采用这行代码直接调用,这样就比较简单MNIST手写数字数据集中包含了70000张图片,其中60000张为训练数据,10000为测试数据,70000张图片均是28*28,数据集样本如下:如果我们把每一张图片中的像素转换为向量,则得到长度为28*28=784的向量。因此我们可以把训练集看成是一个的张量,第一个维度表示图片的索引,第二个维度表示每张图片中的像素点。而图片里的每个像素点的值介于0-1。
2024-07-12 23:24:26
898
原创 Pytorch深度学习10:车牌号识别
- **🍨 本文为[🔗365天深度学习训练营](https://mp.weixin.qq.com/s/pgg8O9Hv8fiLBc8xbFm4HQ) 中的学习记录博客**>- **🍖 原作者:[K同学啊 | 接辅导、项目定制](https://mtyjkh.blog.youkuaiyun.com/)*在之前的案例中,我们多是使用函数直接导入已经分类好的数据集形成Dataset,然后使用DataLoader加载Dataset,本文讲分析无法分类的数据集,应当如何处理。本文数据集为车牌号数据集。
2024-06-28 23:18:31
1216
原创 Pytorch深度学习案例9:Yolov5-backbone模块实现
- **🍨 本文为[🔗365天深度学习训练营](https://mp.weixin.qq.com/s/0dvHCaOoFnW8SCp3JpzKxg) 中的学习记录博客**>- **🍖 原作者:[K同学啊](https://mtyjkh.blog.youkuaiyun.com/)**
2024-06-21 21:30:31
897
原创 Pytorch实现深度学习案例8:Yolov5-c3实现
CSPDarknet53 模型YOLOv5 使用的主干网络是 CSPDarknet53,它是一个改进的 Darknet53 模型。CSPDarknet53 模型通过使用 CSP(Cross Stage Partial)连接来减少参数量并提高模型的效率和性能。C3 模块的作用C3 模块是 CSPDarknet53 模型中的第三个阶段(C3 Stage),负责在输入的特征图中执行一系列卷积操作,以便从输入图像中提取更高级别的特征。
2024-06-14 20:44:13
1138
原创 Pytorch实现深度学习案例7:咖啡豆识别
1.对相同结构的不同数据集,掌握如何调用和手写vgg16函数进行深度学习分析2.准确率高达98%3 初步掌握了vgg16的网络原理和结构。
2024-06-07 16:16:50
844
原创 Pytorch深度学习案例6:VGG-16实现人脸识别
VGG-16(Visual Geometry Group-16)是由牛津大学视觉几何组(Visual Geometry Group)提出的一种深度卷积神经网络架构,用于图像分类和对象识别任务。VGG-16在2014年被提出,是VGG系列中的一种。VGG-16之所以备受关注,是因为它在ImageNet图像识别竞赛中取得了很好的成绩,展示了其在大规模图像识别任务中的有效性。此数据集的结构为:face文件夹下有一些分类文件夹,每个子文件夹都对应一个人进行识别分类。
2024-05-27 10:00:00
1781
原创 Pytorch深度学习案例5:运动鞋识别
熟悉一下这个案例的数据集结构:shoes文件夹下并没有直接的分类。如果是直接分类的话我们需要自行划分训练集和测试集,但此结构是shoes文件夹下有两个文件夹:train和test分别对应了训练集和测试集。每个文件夹下才是各种品牌运动鞋的分类。● dim (int, optional):如果给定,输入将只在这个维度上被压缩。代码运行结果:['test', 'train']● input (Tensor):输入Tensor。对数据的维度进行压缩,去掉维数为1的的维度。预测结果是:adidas。
2024-05-27 07:30:00
1098
原创 Pytorch深度学习案例3:天气识别
前两篇介绍了pytorch自带的数据集:mnist数字和cifar10彩色图片,从这篇博客开始,将进入外部数据集深度学习训练。
2024-05-20 06:00:00
1833
原创 Pytorch深度学习案例2:CIFAR10彩色图片识别
更具体地说,损失函数loss是由模型的所有权重w经过一系列运算得到的,若某个w的requires_grads为True,则w的所有上层参数(后面层的权重w)的.grad_fn属性中就保存了对应的运算,然后在使用loss.backward()后,会一层层的反向传播计算每个w的梯度值,并保存到该w的.grad属性中。在model(test)之前,需要加上model.eval(),否则的话,有输入数据,即使不训练,它也会改变权值。step()函数的作用是执行一次优化步骤,通过梯度下降法来更新参数的值。
2024-05-14 16:32:45
1248
1
原创 Pytorch深度学习案例1:mnist手写数字识别
的 Iterable。输入层为(1,28,28),经过第一个卷积层(卷积核为3,stride为1,padding为0)变为(32,26,26),经过第一个池化层(池化核为2)变为(32,13,13),经过第二个卷积层(卷积核为3,stride为1,padding为0)变为(64,11,11),经过第二个池化层(池化核为2)变为(64,5,5)(pred.argmax(1) == y).type(torch.float).sum().item()表示计算预测正确的样本数量,并将其作为一个标量值返回。
2024-05-14 15:42:33
992
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人