
深度学习
文章平均质量分 88
大龙唉
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Stable Diffusion学习
如果不解释无分类器引导(Classifier-Free Guidance,CFG),这篇文章将是不完整的,这是AI艺术家每天调来调去的值。要了解它是什么,我们需要首先触及它的前身,分类器引导(Classifier Guidance)。原创 2024-06-26 18:11:30 · 1334 阅读 · 0 评论 -
论文阅读《Rethinking Efficient Lane Detection via Curve Modeling》
这篇论文提出了一种新颖的基于参数曲线的方法,用于在RGB图像中进行车道线检测。与通常需要启发式方法来解码预测或制定大量锚点的先进的基于分割和点检测的方法不同,基于曲线的方法可以自然地学习整体的车道表示。为了处理现有多项式曲线方法的优化困难,我们提出利用参数化的贝塞尔曲线,因为它易于计算、稳定,并且具有高自由度的变换。此外,我们提出了基于可变形卷积的特征翻转融合,以利用驾驶场景中车道的对称性质。所提出的方法在流行的LLAMAS基准测试中实现了新的最先进性能。原创 2023-12-27 21:59:01 · 2151 阅读 · 1 评论 -
【目标检测算法】IOU、GIOU、DIOU、CIOU
IOU --> GIOU --> DIOU -->CIOU损失函数,每一种损失函数都较上一种损失函数有所提升。下面来具体介绍这几种损失函数。CIOU的对比重叠面积、中心点距离、纵横比IoU: 考虑了重叠面积,归一化坐标尺度GIoU: 考虑了重叠面积,基于IoU解决边界框不相交时loss等于0的问题。DIoU: 考虑了重叠面积、中心点距离,基于IoU解决GIoU收敛慢的问题CIoU: 考虑了重叠面积、中心点距离、纵横比,基于DIoU提升回归精确度。原创 2023-12-07 12:42:39 · 1522 阅读 · 0 评论 -
用人话讲解深度学习中CUDA,cudatookit,cudnn和pytorch的关系
CUDA看作是一个工作台,上面配有很多工具,如锤子、螺丝刀等。cuDNN是基于CUDA的深度学习GPU加速库,有了它才能在GPU上完成深度学习的计算。它就相当于工作的工具,比如它就是个扳手。但是CUDA这个工作台买来的时候,并没有送扳手。想要在CUDA上运行深度神经网络,就要安装cuDNN,就像你想要拧个螺帽就要把扳手买回来。这样才能使GPU进行深度神经网络的工作,工作速度相较CPU快很多。总结一下。原创 2023-11-16 17:05:38 · 605 阅读 · 0 评论 -
【nvidia-smi】Failed to initialize NVML: Driver/library version mismatch解决方法(不用重启)
在带有GPU的linux服务器上跑代码,cuda昨天还能好好的to(device),今天就不行了。另外,因为是实验室的服务器,虽然网上好多人都说,重启 `reboot`指令可以解决问题,但是因为服务器是。昨天跑代码,cuda还能好好的to(device),今天就不行了。,这样内核会重新加载对应升级后的驱动版本作为内核版本,本文章介绍不用重启的方法。我之前没有进行任何和驱动有关的操作,所以导致该问题的原因应该是。,导致更新后的驱动程序和系统正在使用的内核程序。,导致了版本不匹配的问题,非人为因素。原创 2023-11-05 15:34:06 · 4201 阅读 · 1 评论 -
【深度学习】ResNet+ FPN网络结构
网络退化随着网络深度的增加,网络能获取的信息量随之增加,而且提取的特征更加丰富。但是在残差结构提出之前,根据实验表明,随着网络层不断的加深,模型的准确率起初会不断的提高,达到最大饱和值,然后随着网络深度的继续增加,模型准确率不但不会继续增加,反而会出现大幅度降低现象,即模型训练过程和测试过程的error比浅层模型更高。这是由于之前的网络模型随着网络层不断加深会造成梯度爆炸和梯度消失的问题。原创 2023-11-03 15:13:35 · 7367 阅读 · 0 评论 -
【深度学习】张量tensor
可能导致不可逆的问题,因为 PyTorch 将无法跟踪这些操作的梯度信息,因此要谨慎使用,避免破坏梯度信息的正确计算。通常,建议使用原始张量本身来进行操作,除非确实需要避开梯度跟踪。张量自身特征的信息,比如张量的形状(shape)、数据类型(dtype)、设备位置(CPU 或 GPU)、是否需要梯度信息(requires_grad)等。是存储数据的主要结构。,它可以是标量、向量、矩阵或者更高维的数据。当我们谈论张量的“底层数据”时,我们指的是。数据部分包含了张量中的。属性用于访问张量的底层数据部分,而。原创 2023-10-30 20:53:27 · 118 阅读 · 0 评论 -
【深度学习】图像中的注意力机制简述和代码实现
SE注意力机制(Squeeze-and-Excitation Networks)在通道维度增加注意力机制,关键操作是squeeze和excitation。通过自动学习的方式,使用另外一个新的神经网络获取到特征图的每个通道的重要程度,然后用这个重要程度去给每个特征赋予一个权重值,从而让神经网络重点关注某些特征通道。提升对当前任务有用的特征图的通道,并抑制对当前任务用处不大的特征通道。原创 2023-10-27 22:50:13 · 1192 阅读 · 0 评论