- 博客(4)
- 收藏
- 关注
原创 Bert实战
这些函数主要用于处理和加载数据集,以便在机器学习或深度学习任务中使用。read_filejdDatasetDatasetLongTensor__len__read_filejdDatasetDataLoader总的来说,这些函数和类的组合使得从文件中读取数据、划分数据集、创建数据加载器的过程变得更加方便,便于后续在PyTorch中进行模型的训练和验证。
2025-01-15 14:39:36
1851
原创 图片分类实战 + 半监督
总的来说,通过设置这些种子,函数确保了在深度学习训练过程中,所有随机操作(如初始化权重、打乱数据集等)都是可复现的。这对于调试和科学研究特别重要,因为可复现的结果是验证研究有效性的关键。当调用时,函数会将所有上述提到的随机数生成器的种子设置为0,从而确保在接下来的代码执行中,任何随机操作都将按照固定的模式进行,使得实验结果可以复现这段代码定义了两个图像变换序列,一个用于训练数据(),另一个用于验证数据(这些变换是使用PyTorch的。
2025-01-10 16:47:39
1696
原创 卷积神经网络特征图维度变化
VGG13是一种流行的卷积神经网络(CNN)架构,它是由牛津大学的视觉几何组(Visual Geometry Group)开发的。请注意,上述描述中的特征图尺寸变化是基于标准的VGG13架构,并且假设输入图像的尺寸为224x224。如果输入图像的尺寸不同,那么特征图的尺寸也会相应地变化。此外,上述描述省略了ReLU激活函数和批量归一化(Batch Normalization)层,这些通常在每个卷积层之后使用。
2025-01-06 17:00:18
628
原创 回归实战(新冠人数预测)
这是一个构造函数,用于初始化模型。inDim是一个参数,表示输入数据的维度。在构造函数中,定义了两个全连接层(nn.Linear)和一个ReLU激活函数(nn.ReLUself.fc1是第一层全连接层,它将输入维度inDim映射到 64 个神经元。self.relu1是ReLU激活函数,用于在第一层全连接层之后添加非线性。self.fc2是第二层全连接层,它将 64 个神经元的输出映射到一个神经元,这通常用于回归或二分类任务。这是模型的前向传播函数,用于定义数据如何通过网络。输入x。
2025-01-03 14:11:18
1906
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人