- 博客(43)
- 收藏
- 关注
原创 N8周打卡:使用Word2vec实现文本分类
Word2Vec为文本分类提供了有效的词级别特征表示,通过将词语映射到低维空间,保留了语义信息并减少了数据稀疏性。结合适当的分类模型,能够实现高效准确的文本分类任务。随着NLP技术的发展,Word2Vec可以与其他先进方法结合,进一步提升分类性能。
2025-10-24 21:41:43
251
原创 第N7周打卡:调用Gensim库训练Word2Vec模型
Word2Vec 模型学习总结4.1Word2Vec 是一种非常强大的词嵌入(Word Embedding)技术,通过学习单词的分布式表示,可以将单词映射到高维向量空间中,使得语义相似的单词在向量空间中的距离更近。4.2主要参数理解4.2.1vector_size (特征向量维度)决定了词向量的维度大小通常设置在50-300之间维度越高能捕捉更多特征,但也需要更多数据和计算资源4.2.2window (上下文窗口大小)控制训练时考虑的上下文范围。
2025-10-17 18:22:07
962
原创 第N5周:Pytorch文本分类入门
本次学习以 AGNews 四类新闻数据为对象,掌握 EmbeddingBag 高效聚合词嵌入、省内存的优势,完成数据预处理到模型训练全流程,验证其在轻量文本分类的有效性,也明确可通过调参、迁移学习优化精度与泛化性。
2025-10-10 22:41:13
148
原创 第N4周:NLP中的文本嵌入
定义模型self.fc = nn.Linear(embed_dim, 1) # 假设我们做一个二分类任务print("embedding输入文本是", text)print("embedding输入文本是shape:", text.shape)embedding_mean = embedding.mean(dim=1) # 对每个样本的嵌入向量进行平均print("embedding输出文本shape:", embedding_mean.shape)
2025-09-24 20:18:56
716
原创 N2周打卡:构建词典
本次学习掌握了利用torchtext的中文文本构建词典全流程1、用with open( )读取文本并存入列表;2、借jieba分词,支持加载自定义词典;3、通过正则去标点、用集合去停用词预处理;4、以迭代器生成词汇,用build_vocab_from_iterator构建含的词汇表,再将文本数字化。
2025-09-19 18:40:42
159
原创 R9周打卡:阿尔兹海默病诊断(优化特征选择)
本次任务在优化特征选择上进行,特征选择与处理划分训练集和测试集:使用train_test_split将数据划分为训练集和测试集(8:2)。标准化处理:使用StandardScaler对数据进行标准化,以提高模型性能。特征重要性评估:使用决策树(DecisionTreeClassifier)计算特征重要性,并绘制条形图展示最重要的特征。使用递归特征消除(RFE)方法选择前20个关键特征。最终特征选择:选择了20个最具代表性的特征用于后续建模。
2025-09-08 09:34:32
396
原创 第R8周:RNN实现阿尔兹海默病诊断
训练循环size = len(dataloader.dataset) # 训练集的大小num_batches = len(dataloader) # 批次数目, (size/batch_size,向上取整)train_loss, train_acc = 0, 0 # 初始化训练损失和正确率for X, y in dataloader: # 获取图片及其标签# 计算预测误差pred = model(X) # 网络输出。
2025-09-05 10:36:48
661
原创 R7周:糖尿病预测模型优化探索
out = out[:, -1, :] # 只取最后一个时间步的输出return outmodel# 训练循环size = len(dataloader.dataset) # 训练集的大小num_batches = len(dataloader) # 批次数目, (size/batch_size,向上取整)train_loss, train_acc = 0, 0 # 初始化训练损失和正确率for X, y in dataloader: # 获取图片及其标签# 计算预测误差。
2025-08-29 14:10:42
199
原创 第R6周:LSTM实现糖尿病探索与预测
关键观察点(1) 训练准确率(Training Accuracy)• 趋势:从初始值约 0.50 快速上升至 0.80 附近,最终趋于平稳。• 分析:• 模型在训练数据上学习效果显著,能够较好地拟合训练集。• 最终稳定在较高水平(0.80),表明模型容量足够捕捉训练数据的特征。(2) 验证准确率(Validation Accuracy)• 趋势:从 0.50 逐步上升至约 0.65-0.70,但波动明显,后期未显著提升。
2025-08-20 19:48:08
644
原创 第R5周:天气预测
对使用 LSTM 模型进行天气预测任务的优缺点总结,并结合 Seaborn 可视化分析时常见的观察点进行说明:一、LSTM 在天气预测中的优点捕捉长期依赖关系,天气数据(如温度、湿度序列)具有强时间依赖性(如季节周期、连续数天的趋势)。LSTM 的门控机制(遗忘门、输入门、输出门)能有效学习长期模式。可视化验证:使用 Seaborn 的 lineplot()绘制真实值 vs 预测值,可观察到模型对趋势拐点(如寒潮来临)的跟踪能力。
2025-08-14 21:46:19
1053
原创 R4周打卡——Pytorch实现 LSTM火灾预测
训练模型loss_fn = nn.MSELoss() # 创建损失函数learn_rate = 1e-1 # 学习率输出LSTM模型的核心优势时间序列数据的建模能力:LSTM(长短时记忆网络)专门设计来处理和预测序列数据中的长期依赖关系。在火灾温度预测这种时间序列问题中,LSTM能够有效捕捉过去温度数据与未来温度之间的关联,尤其在火灾数据中,温度往往有较强的时间依赖性。
2025-08-06 16:30:04
605
原创 第R3周:RNN-心脏病预测
序列的本质在于依赖关系: RNN 的核心魅力在于它首次(在神经网络领域)明确地、优雅地建模了序列数据中元素之间的时序依赖关系或上下文依赖关系。它让我深刻认识到,理解一个词、一个音符、一个股价点,往往需要了解它前面发生了什么。
2025-08-01 15:56:25
459
原创 第J9周:Inception v3算法实战与解析
🏡 我的环境:语言环境:Python3.8编译器:Jupyter Lab深度学习环境:torch。
2025-07-24 20:59:13
361
原创 第J8周打卡
本文介绍了基于PyTorch实现GoogleNet InceptionV1模型的深度学习训练过程。作者使用Python3.8环境、Jupyter Lab编译器和torch 2.5.1框架,详细构建了包含inception_block模块的GoogleNet网络结构。模型通过多个并行卷积分支(1x1、3x3、5x5卷积和池化层)提取特征,并采用通道拼接方式融合不同感受野的特征。文章展示了完整的网络架构实现代码,包括初始卷积层、5个inception模块堆叠以及最终的分类器部分,并提供了各层特征图的维度变化说明
2025-07-19 10:57:05
421
原创 J7打卡:ResNeXt-50算法思考
本文分析了深度学习训练营中关于残差网络(ResNet)代码的正确性问题。重点探讨了残差单元block模块中Add()层的通道数匹配机制:当conv_shortcut为False时,快捷连接(shortcut)会直接传递输入x,导致与主路径通道数不一致。研究发现,虽然存在通道数差异,但Add()层会自动进行零填充处理,这种操作既不会引发尺寸错误,也不会影响梯度更新。因此代码设计是合理的,通道数不匹配问题已被TensorFlow框架内置机制妥善解决。
2025-07-11 21:37:45
438
原创 第J6周打卡:ResNeXt-50
第J6周:ResNeXt-50实战ResNeXt是由何凯明团队在2017年CVPR会议上提出来的新型图像分类网络。ResNeXt是ResNet的升级版,在ResNet的基础上,引入了cardinality的概念,类似于ResNet,ResNeXt也有ResNeXt-50,ResNeXt-101的版本。下图是ResNet(左)与ResNeXt(右)block的差异。在ResNet中,输入的具有256个通道的特征经过1x1卷积压缩4倍到64个通道,之后3x3的卷积核用于处理特征,经1x1卷积扩大通道数与原特征残
2025-07-04 21:09:28
885
原创 J5周打卡
SE-Net是lmageNet2017(lmageNet收官赛)的冠军模型,是由WMW团队发布。具有复杂度低,参数少和计算量小的优点。且SENet 思路很简单,很容易扩展到已有网络结构如Inception 和ResNet 中。SENet将关注点放在特征通道之间的关系。具体策略表现为:通过学习的方式自动获取到每个特征通道的重要程度,然后依照这个重要程度去提升有用的特征并抑制对当前任务用处不大的特征。优点:灵活性高,可以直接用于现有的网络结构中。
2025-06-28 09:24:56
599
原创 J4周:ResNet与DenseNet结合探索
ResNet和DenseNet在2015年左右,两种比较热门的网络结构,ResNet把输入直接加到(element-wise adding)卷积的输出上,DenseNet则把每一层的输出都拼接(concatenate)到了其后每一层的输入上。应该采用DPN这个网络,结合了ResNet和DenseNe各自的优点。
2025-06-20 10:57:54
311
原创 第J3-1周:DenseNet算法 实现乳腺癌识别
特征重用:每一层都接收前面所有层的特征图作为输入,因此可以充分利用前面层的特征,促进特征重用,提高特征传播效率。参数高效:因为每一层都可以直接使用前面层的特征,所以不需要学习冗余的特征图,网络可以设计得更窄(即卷积核数量减少),从而减少参数数量。改善特征提取:通过特征图的拼接,网络能够学习到更加多样化的特征组合,提升模型的表现能力。
2025-06-06 21:46:45
626
原创 第J2周:ResNet50V2 算法实战与解析
ResNet v2的主要改进点。可能包括:1. 使用预激活结构,把BatchNorm和ReLU放在卷积之前。这样在残差块中,激活函数先于卷积层应用,这样梯度流动更顺畅,更有效地解决梯度消失的问题。2. 可能还调整了残差路径的设计,比如在跳跃连接中避免不必要的操作,保持恒等映射。3. 可能还涉及到了更深的网络结构或者更高效的训练方法。然后,我需要总结ResNet v2的架构变化。比如,原来的残差块是conv-BN-ReLU的序列,而v2可能调整为BN-ReLU-conv的顺序,也就是预激活。
2025-05-23 20:39:00
768
原创 第J1周:ResNet-50算法实战与解析
ResNet是由微软研究院提出的,应该是在2015年的ImageNet竞赛中取得了很好的成绩。残差块是它的核心概念,对吧?残差块通过跳跃连接(shortcut connections)将输入直接传递到后面的层,这样可以让网络更容易训练深层结构。那ResNet-50中的50层具体是怎么组成的呢?ResNet有不同的版本,比如ResNet-18、34、50、101、152,数字代表层数。50层的应该比更小的版本更深,结构更复杂。那ResNet-50的结构具体是怎样的?
2025-05-16 21:59:24
575
原创 第T8周:猫狗识别
VGG优缺点分析:● VGG优点VGG的结构非常简洁,整个网络都使用了同样大小的卷积核尺寸(3x3)和最大池化尺寸(2x2)。● VGG缺点1)训练时间过长,调参难度大。2)需要的存储容量大,不利于部署。例如存储VGG-16权重值文件的大小为500多MB,不利于安装到嵌入式系统中。结构说明:● 13个卷积层(Convolutional Layer),分别用blockX_convX表示● 3个全连接层(Fully connected Layer),分别用fcX与predictions表示。
2025-05-02 21:37:30
819
原创 第T9周:猫狗识别2
VGG-16 是由牛津大学视觉几何组(Visual Geometry Group)在2014年提出的经典卷积神经网络模型,在图像分类任务中表现出色。以下是其核心优缺点的总结:优点1、采用重复的 3×3 小卷积核 和 2×2 最大池化层 堆叠,网络结构高度模块化,易于理解和实现。这种统一性降低了设计复杂性。2、深度增加,特征提取能力强、通过堆叠多个卷积层(16层),网络能提取更复杂的特征,提升模型表达能力。相较于早期的 AlexNet(8层),VGG-16 的深度显著提高。
2025-04-25 09:12:05
1923
原创 第T10周:数据增强
这是大家可以自由发挥的一个地方# 随机改变图像对比度数据增强方法实验中使用了哪些数据增强方法?模型:描述使用的模型(如 ResNet、Transformer 等)。评估指标:准确率(Accuracy)、F1 分数、mIoU 等。对比实验:是否与未使用数据增强的基线模型进行对比。超参数:数据增强方法的参数设置(如旋转角度范围、裁剪比例等)。
2025-04-18 09:56:00
1049
原创 第P10周:Pytorch实现车牌识别
数据准备和预处理首先,需要准备包含车牌的图像数据集。数据集应包含车牌图像和对应的标签(车牌号)。数据准备包括:图像增强:为了增加模型的泛化能力,通常会对图像进行旋转、缩放、剪裁等处理。灰度化:转换成灰度图像,以减少计算复杂度。归一化:将图像像素值归一化到0-1的范围内。2. 车牌定位车牌定位是车牌识别的第一步,目标是从整张图像中提取出车牌区域。可以使用传统的计算机视觉技术(如边缘检测、形态学处理)或者深度学习模型(如卷积神经网络)进行车牌区域的检测。
2025-04-04 13:05:44
685
原创 第P9周:YOLOv5-Backbone模块实现
Backbone 模块的作用Backbone 模块是目标检测网络的核心部分,主要用于提取图像的低级到高级的特征。通过提取特征图,Backbone 为后续的目标检测模块(如 Neck 和 Head)提供了丰富的视觉信息。YOLOv5 Backbone 选择在 YOLOv5 中,Backbone 模块通常是一个由多个卷积层和激活函数组成的神经网络结构。YOLOv5 实现的 Backbone 主要基于 CSPDarknet(一个改进版的 Darknet)并且进行了优化。
2025-03-28 20:43:00
735
原创 第P8周:YOLOv5-C3模块实现
目标检测:YOLO系列变体(如YOLOv6、YOLOv8)尝试在Backbone中融合C3和注意力机制。图像分类:在轻量级分类网络(如MobileViT)中结合C3模块,平衡精度与速度。医学图像分析:需同时关注局部病变细节和全局解剖结构,C3-Transformer模型表现优异。C3-Transformer类模型通过融合卷积的局部归纳偏置和注意力的全局建模能力,在视觉任务中展现了更强的特征表达能力。未来发展方向可能集中在动态架构设计、轻量化部署和跨模态扩展上。
2025-03-21 20:58:28
462
原创 第P7周:马铃薯病害识别(VGG-16复现)
极简主义哲学:通过堆叠相同尺寸的小卷积核(3x3),既保证感受野等效于大核(5x5/7x7),又大幅减少参数量(2个3x3卷积参数量为2*(3²C²)=18C²,vs 单个5x5的25C²)。这种设计体现了"用深度换性能"的深度学习核心思想。空间信息处理范式:随着网络加深,特征图尺寸阶梯式减半(MaxPooling),通道数指数级增长(从64到512)。这种"空间压缩-特征扩展"的模式成为后续CNN设计的标准范式。
2025-03-14 15:45:34
1986
原创 第P6周:VGG-16算法-Pytorch实现人脸识别
深度:VGG-16由16个卷积层和3个全连接层组成,因此具有相对较深的网络结构。这种深度有助于网络学习到更加抽象和复杂的特征。卷积层的设计:VGG-16的卷积层全部采用3x3的卷积核和步长为1的卷积操作,同时在卷积层之后都接有ReLU激活函数。这种设计的好处在于,通过堆叠多个较小的卷积核,可以提高网络的非线性建模能力,同时减少了参数数量,从而降低了过拟合的风险。池化层:在卷积层之后,VGG-16使用最大池化层来减少特征图的空间尺寸,帮助提取更加显著的特征并减少计算量。
2025-03-07 11:07:38
853
原创 第P5周:Pytorch实现运动鞋识别
等间隔动态调整方法,每经过step_size个epoch,做一次学习率decay,以gamma值为缩小倍数。函数原型:根据自己定义的函数更新学习率。
2025-02-21 16:26:55
817
原创 第P4周:猴痘病识别
对数据维度进行扩充。给指定位置加上维数为一的维度函数原型:关键参数说明:● input (Tensor):输入Tensor● dim (int):插入单例维度的索引⭐torch.squeeze()详解对数据的维度进行压缩,去掉维数为1的的维度函数原型:关键参数说明:● input (Tensor):输入Tensor● dim (int, optional):如果给定,输入将只在这个维度上被压缩。
2025-02-12 18:23:03
636
原创 第P3周:Pytorch实现天气识别
函数会遍历模型的所有参数,通过内置方法截断反向传播的梯度流,再将每个参数的梯度值设为0,即上一次的梯度记录被清空。PyTorch的反向传播(即tensor.backward())是通过autograd包来实现的,autograd包会根据tensor进行过的数学运算来自动计算其对应的梯度。
2025-01-14 10:37:57
885
原创 第P2周:CIFAR10彩色图片识别
对于一般的CNN网络来说,都是由特征提取网络和分类网络构成,其中特征提取网络用于提取图片的特征,分类网络用于将图片进行分类。torch.nn.Conv2d()详解函数原型:关键参数说明:● in_channels ( int ) – 输入图像中的通道数● out_channels ( int ) – 卷积产生的通道数● kernel_size ( int or tuple ) – 卷积核的大小● stride ( int or tuple , optional ) – 卷积的步幅。
2025-01-09 10:02:44
758
原创 第T7周:咖啡豆识别
● 文为「365天深度学习训练营」内部文章● 参考本文所写文章,请在文章开头带上「🔗 声明」🏡 我的环境:● 语言环境:Python3.8.8● 编译器:jupyter lab● 深度学习环境:TensorFlow2.10.0。
2024-12-26 15:39:54
1076
原创 第T6周:好莱坞明星识别
1. 使用categorical_crossentropy(多分类的对数损失函数)完成本次选题2. 探究不同损失函数的使用场景与代码实现
2024-12-20 09:50:50
683
原创 第T3周:天气识别
本文将采用CNN实现多云、下雨、晴、日出四种天气状态的识别。较上篇文章,本文为了增加模型的泛化能力,新增了Dropout层并且将最大池化层调整成了平均池化层。
2024-11-19 20:26:41
770
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅