
深度学习
文章平均质量分 54
该专栏包括深度学习相关的一些代码及理论知识
湫兮之风
这个作者很懒,什么都没留下…
展开
-
差值图中像素总和的正负性(极性)含义
正总和: 差值图总和为正表示整体上I1比I2亮,但这并不保证I1在所有区域中都比I2亮。局部分析: 对于详细了解图像中的亮度变化,分析差值图中的局部区域是必要的。这样可以更准确地判断图像间的具体亮度差异,而不仅仅依赖于整体总和。原创 2024-09-11 16:45:31 · 376 阅读 · 0 评论 -
Pytorch:复写Dataset函数详解,以及Dataloader如何调用
Dataset__len__(): 返回数据集的总样本数。DataLoader使用这个方法来确定数据的总量,以便进行正确的批处理和打乱。: 根据索引返回单个数据样本。DataLoader会调用这个方法来获取每个批次的数据样本。DataLoader负责将数据分批、打乱数据、并行加载等任务。使用Dataset的__len__()来了解数据集的大小,并使用来获取每个样本。通过这种方式,Dataset提供了数据访问的接口,而DataLoader管理数据的加载、打乱和批处理等高级功能。原创 2024-08-23 17:10:52 · 541 阅读 · 0 评论 -
深度学习:模型训练中记录log的方式
PyTorch:可以使用logging库或 TensorBoard 记录训练过程。TensorFlow:可以使用tf.summary和 TensorBoard 记录和可视化训练信息。通过在训练过程中添加适当的日志记录,你可以更好地监控模型的性能,调试训练过程中的问题,并记录实验结果。原创 2024-08-15 16:00:32 · 1015 阅读 · 0 评论 -
基尼指数详细解释
基尼指数量化了一个节点中样本的不纯度。具体来说,它计算了从该节点中随机抽取两个样本,它们属于不同类别的概率。基尼指数越低,表示节点的纯度越高。原创 2024-08-15 14:40:15 · 2398 阅读 · 0 评论 -
这就是顶会中的“MLP”
全连接被卷积覆盖,给位写论文的琢磨琢磨这些操作吧。原创 2024-03-06 16:36:26 · 160 阅读 · 0 评论 -
PyTorch:The “freeze_support()” line can be omitted
出现这个问题将所运行函数放到main函数中运行,不然会一直创建线程。原创 2023-12-22 19:29:33 · 494 阅读 · 0 评论 -
验证集、训练集及测试集概念
(花书给出了解答)一是超参数一般难以优化(无法像普通参数一样通过梯度下降的方式进行优化).二是超参数很多时候不适合在训练集上进行训练,例如,如果在训练集上训练能控制模型容量的超参数,这些超参数总会被训练成使得模型容量最大的参数(因为模型容量越大,训练误差越小),所以训练集上训练超参数的结果就是模型绝对过拟合.:从字面意思理解即为用于验证模型性能的样本集合.不同神经网络在训练集上训练结束后,通过验证集来比较判断各个模型的性能.这里的不同模型主要是指对应不同超参数的神经网络,也可以指完全不同结构的神经网络.原创 2023-12-18 15:46:46 · 555 阅读 · 0 评论 -
nn.Sequential
nn.Sequential是按照顺序存储的,一切按照顺序存储的东西,都可以按照索引取出,所以这里利用索引0取出第一层函数。是PyTorch中用于创建神经网络模型的类。它允许您将多个神经网络层(例如卷积层、池化层、激活函数等)按顺序组合在一起。可以轻松地构建复杂的神经网络结构,而无需手动连接各个层。您可以将不同的层作为。的示例,展示如何创建一个简单的卷积神经网络.的参数传递,并按照您期望的顺序排列它们。原创 2023-12-02 16:04:30 · 641 阅读 · 0 评论 -
cannot assign module before Module.__init__() call
出现这个报错的一脸懵逼,检查后发现很简单,父类的初始化函数编写问题。原创 2023-11-27 22:52:34 · 654 阅读 · 0 评论 -
ModuleNotFoundError: No module named ‘tensorboard‘
调用summary方法使用导入tensorboard包,现在可以直接利用torch来导入,然而可以看到torch源文件中也是import tensorboard,所以需额外安装tensorboard。选择conda还是pip安装依据自己环境选择。原创 2023-06-18 20:38:46 · 594 阅读 · 1 评论 -
卷积核的基本概况
在数学上,卷积核的标准定义是两个函数在反转和移位后的乘积的积分其中,函数g一般称为,函数f指的是。在卷积神经网络里,卷积核其实就是一个过滤器,但在深度学习里,它不做反转,而是直接元素的乘法和加法,我们把这个又称为,在深度学习里称为那为什么在图像处理上,需要进行卷积处理呢。实际上是借鉴于科学家的研究结果——上个世纪科学家就发现,视觉皮层的很多神经元都有一个小的局部感受野,神经元只对有限区域的感受野上的刺激物做出反应。不同的感受野可以重叠,他们共同铺满整个视野。原创 2022-10-08 15:15:00 · 85 阅读 · 0 评论 -
分组卷积(神经网络)
分组卷积,提高并行效率转载 2022-10-03 14:31:50 · 252 阅读 · 0 评论